Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.
AI-diplomatie
[0:00:07] Ik open hierbij de Commissievergadering voor Buitenlandse Zaken... met vervolgcommissie de Commissie voor Digitale Zaken.
[0:00:14] Ik heet onze gasten van harte welkom.
[0:00:17] En ik heet onze Kamerleden... Oh, de heer Van Liesen.
[0:00:20] En gelukkig de heer Van den Burg.
[0:00:23] Als het goed is sluiten nog een aantal collega's aan vanuit de Kamer.
[0:00:28] Maar laat ik beginnen met onze gasten voor te stellen.
[0:00:31] De heer Noorman namens Buitenlandse Zaken.
[0:00:35] En dan een aantal collega's.
[0:00:38] gasten vanuit de academische wereld, adviseurs van de regering of de Europese Commissie, zie ik op mijn blaadje.
[0:00:44] De eerste is professor Dokter Seyk.
[0:00:48] De tweede is professor Dokter Jeroen van den Hoven van de Technische Universiteit Delft.
[0:00:53] Daarna professormeester Locke Morel.
[0:00:57] Zij is lid van de Nationale Cyberveiligheidsraad.
[0:01:00] Maar misschien dat u zelf ook straks kunt voorstellen.
[0:01:02] Ik lees even uw naam al in voor.
[0:01:04] En Marleen Stikker, zij is directeur van de Waag Future Lab.
[0:01:10] Ik heb begrepen dat u allen een korte inleiding doet... en dat ik dan over kan schakelen naar de Kamerleden... die u dan vragen kunnen stellen... en dan daar een interactieve sessie van kunnen maken.
[0:01:23] En dan geef ik als eerste de heer Norman namens Buitenlandse Zaken het woord.
[0:01:30] Heel veel dank, voorzitter.
[0:01:32] En heel veel dank voor deze gelegenheid om een technische briefing te kunnen...
[0:01:38] over een onderwerp wat buitengewoon relevant is... en juist deze brief op de dag na de AI Action Summit in Parijs... waar twee bewindspersonen aan hebben deelgenomen.
[0:01:50] Deze briefing is ook naar aanleiding van een motie van uw Kamer... de motie 6 Dijkstra van 14 mei... met het verzoek om te komen met een strategie over AI-diplomatie...
[0:02:02] Ook als vervolg op de internationale cyberstrategie die we in 2023 hebben aangenomen.
[0:02:10] De bestuursraad van het ministerie van Buitenlandse Zaken heeft mij de opdracht gegeven samen met een team om aan de slag te gaan.
[0:02:17] Dat doen we zowel binnen het departement breed, maar ook met andere departementen en met verschillende stakeholders.
[0:02:23] Zoals ook voor een deel hier aan tafel met mij zitten.
[0:02:28] Om te onderzoeken van waar zou Nederland nou op moeten inzetten voor die strategie.
[0:02:35] Dat is, kan ik u verklappen, geen eenvoudige opgave.
[0:02:39] Er is niet een staand beleid, nationaal beleid, wat de gedegenheid van vele jaren op je bouwt.
[0:02:45] Als strategie, wat we bijvoorbeeld met de internationale cyberstrategie hebben gedaan.
[0:02:49] Dus we zijn ook in het gesprek met verschillende partijen en verschillende departementen.
[0:02:54] Van waar ligt onze kracht?
[0:02:55] Waar moeten we op inzetten?
[0:02:57] Wat is de rol van Europa?
[0:02:58] Wat is de rol van de NAVO?
[0:03:01] En daar komen we al gauw op thema's.
[0:03:03] Wat zijn onze waarden als Europa, als Nederland?
[0:03:06] Hoe zorgen we voor weerbaarheid?
[0:03:09] En hoe zorgen we ook voor kansen voor het Nederlandse bedrijfsleven op dit punt?
[0:03:12] En niet alleen bedrijfsleven, maar ook de academische wereld, want het is nog een heel breed onderwerp.
[0:03:19] We zijn al betrokken bij veel discussies, maar het is nu natuurlijk vooral van waar gaan we op inzetten?
[0:03:24] Welke richting kiezen we erop?
[0:03:26] We zijn zeer gelukkig met een aantal experts vandaag hier aan tafel.
[0:03:31] Die wil ik vooral het woord geven.
[0:03:35] U heeft ze eigenlijk al geïntroduceerd, dus ik laat dat even achterwege om een herhaling te voorkomen.
[0:03:40] Maar als eerste zou ik graag het woord willen geven aan Haroun Scheich.
[0:03:43] En ook heel veel dank voor je aanwezigheid hier tijdens deze briefing.
[0:03:50] Dank voor de vriendelijke uitnodiging om een korte introductie te doen.
[0:03:53] Ik zal het kort houden, een paar punten aanstippen, zodat we daarna ruim tijd hebben voor besprekingen in dit intieme gezelschap.
[0:04:01] Mij is vooral gevraagd om iets te zeggen over AI en implicaties voor veiligheid.
[0:04:05] Daar zal ik eerst iets over zeggen.
[0:04:07] Daarna wil ik iets zeggen over wat recente ontwikkelingen die AI-diplomatie nog wat pregnanter, acuter maken.
[0:04:14] En tenslotte wil ik iets zeggen over het afbouwen van afhankelijkheden op het gebied van AI.
[0:04:20] Allereerst de implicaties van AI op veiligheid.
[0:04:23] Dat is een ongelooflijk breed fenomeen.
[0:04:26] Alleen al proberen te begrijpen wat voor manieren het veiligheid kan bedreigen is enorm.
[0:04:31] Het meest evidente en al jarenlang bekende voorbeeld is het gebruik in autonome wapens.
[0:04:36] Sindsdien is er vrij breed interesse en meer begrip op...
[0:04:39] hoe AI breder gebruikt kan worden in militaire toepassingen.
[0:04:43] Daar heeft Nederland middels de RE-AIM-conferentie ook trouwens al een flinke rol ingespeeld in AI-diplomatie, door het thema van AI breed in het militaire domein op de kaart te zetten en bij te dragen aan het nadenken aan principes daarvoor.
[0:04:55] Daarnaast hebben we het hier nog steeds over AI in het militaire domein.
[0:04:58] Er zijn ook heel veel bredere andere manieren waarop AI de veiligheid kan bedreigen.
[0:05:03] Daar is recent ook bij de AI Summit een AI Safety rapport over gepubliceerd.
[0:05:07] Ik mocht daar namens Nederland aan bijdragen.
[0:05:09] Dat is een heel uitgebreid rapport wat grofweg in drie categorieën de risico's voor veiligheid indeelt.
[0:05:16] Het gaat over de mogelijkheid door kwaadaardige actoren om de AI-instrumenten te gebruiken.
[0:05:21] Het gaat over mogelijke ongelukken die kunnen plaatsvinden door complexe systemen.
[0:05:25] En het gaat over structurele effecten op de samenleving.
[0:05:28] Heel kort laat ik maar een paar voorbeelden noemen waar het hier over gaat.
[0:05:31] Het gaat over immens grote nieuwe manieren om desinformatie te verspreiden.
[0:05:35] Om manipulatie te veroorzaken.
[0:05:38] Veel geavanceerdere cyberaanvallen.
[0:05:40] En daar ook in de planning AI mee te laten meedenken.
[0:05:43] En mogelijk zelfs ook op termijn.
[0:05:46] AI dat gebruikt kan worden voor biologische oorlogsvoering... in de zin van de wetenschappelijke kennis die het democratiseert.
[0:05:52] Goed, dat denk ik is misschien eventjes een beetje... laat even de volle breedte zien van het fenomeen AI... en op welke manier het risico's kan vormen voor veiligheid.
[0:06:01] Laat me ten tweede nu iets zeggen over een aantal recente ontwikkelingen... die denk ik van belang zijn als we nadenken over de inzet van de Nederlandse AI-diplomatie.
[0:06:10] En dat is denk ik allereerst dat er een flinke kentering in de VS heeft plaatsgevonden.
[0:06:15] De VS heeft eigenlijk al heel lang dat het zegt eigenlijk, AI...
[0:06:19] er hoort veiligheid en waarden horen daarbij, maar in principe is er al veel langere mentaliteit van het gaat om innovatie en dat voorop.
[0:06:26] Dat is onder de Trump-administratie nog een keertje verharder doorgezet.
[0:06:31] De Responsible AI Act van Biden is eigenlijk weggestuurd, is mee opgehouden.
[0:06:37] Het uitgangspunt van de VS is, wij moeten de AI-strijd met China winnen.
[0:06:41] En er zijn geen waarden, geen guardrails, geen zorgen die we hebben, die dat in de weg gaan staan.
[0:06:49] Evident daarvoor is ook JD Vans op de AI Summit in Parijs vandaag.
[0:06:53] Hij heeft dat zelf ook zo aangegeven.
[0:06:55] Hij verzet zich tegen Europese wetgeving op het gebied van AI.
[0:06:57] Hij zegt eigenlijk we moeten AI niet smoren, we moeten het stimuleren.
[0:07:01] En een VS dat zo inzet op het vergroten van AI capaciteiten, volle kracht, vergroot dus al die risico's die ik in dit stuk even benoemde.
[0:07:10] Het andere fenomeen.
[0:07:11] is wat natuurlijk in China gebeurt.
[0:07:12] We hebben recent veel gehoord over diepziek als opkomend fenomeen.
[0:07:15] Er valt veel over te zeggen en of het nou de boel veel gaat democratiseren.
[0:07:19] Wat er in ieder geval wel betekent... is dat veel van die generatieve AI-toepassingen... makkelijker toegankelijk worden voor veel meer mensen.
[0:07:26] Ook dat dus vergroot die risico's... omdat gewoon veel meer mensen met veel groter gemak... tot deze instrumenten toegang krijgen.
[0:07:34] Laatste punt, en daar rot ik mee af...
[0:07:38] Willen we in deze context, mijn boodschap is er dus wel eentje van grote zorg.
[0:07:43] We hebben brede veiligheidsrisico's.
[0:07:46] Die worden door de recente ontwikkelingen, door de twee grootmachten.
[0:07:48] De VS en China eigenlijk een keertje, nog een keertje vergroot.
[0:07:51] Willen we daar iets over kunnen zeggen en mee praten.
[0:07:54] Zullen we zelf ook echt AI capaciteiten moeten hebben.
[0:07:57] Wij zullen een speler moeten zijn.
[0:07:58] Als Europa ook zullen wij mee moeten doen om iets te kunnen vormgeven aan de weg van hoe AI wordt ingezet.
[0:08:04] Dat is wat mij betreft de grote boodschap ook.
[0:08:07] Er is veel gediscussieerd over DeepSeek en Stargate.
[0:08:11] Voor mij de achterliggende boodschap van beide fenomenen is... de VS en China zetten in op digitale soevereiniteit.
[0:08:17] Ze bouwen AI-systemen, ze bouwen datacenters, ze bouwen chips.
[0:08:21] Ze zorgen dat de grondstoffen er zijn.
[0:08:22] Daar dwingen ze zelfs Oekraïne en Groenland voor om die bij te dragen.
[0:08:25] Om allemaal één groot eigen digitaal ecosysteem te bouwen.
[0:08:29] Als wij niet zorgen dat wij zelf ook meer soeverein worden... zullen wij aan de grimmen van deze twee grootmachten doodgesveld blijven.
[0:08:35] Dat is wat mij betreft.
[0:08:37] Dank u wel.
[0:08:38] Ik denk dat ik nu het woord kan geven aan professor Van den Hove.
[0:08:42] Dank u wel.
[0:08:43] Dank voor de uitnodiging om hier te spreken.
[0:08:45] Mij is gevraagd om kort iets te zeggen over hoe je dat zou moeten doen.
[0:08:48] Verantwoord, innoveren, verantwoord gebruik van nieuwe AI functionaliteit.
[0:08:54] Dus dat doe ik graag.
[0:08:56] Ik werd door de opmerkingen ter afsluiting van Haroun nog herinnerd aan een uitspraak die de Europese Commissie al in 2018 heeft gedaan.
[0:09:05] Laat China en Amerika nou hun gang gaan met AI en met geavanceerde digitale technologie.
[0:09:10] Laten wij ons bepalen tot waar wij in Europa van zijn.
[0:09:14] Wij moeten innoveren op een manier die passend is bij Europa, die respecteert onze fundamentele waarden.
[0:09:21] Ik zie drie bedreigingen.
[0:09:24] Eerste, verlies van strategische soevereiniteit.
[0:09:27] Dus dat we op het gebied van AI niet over de middelen en de resources kunnen beschikken.
[0:09:33] Omdat die bij anderen zijn en anderen daar voorwaarden aan kunnen stellen.
[0:09:37] Dus data, modellen, computer hardware, compute, energy.
[0:09:41] Tweede, het verlies van culturele en morele soevereiniteit.
[0:09:45] dat we aangewezen zijn op spullen, als we ze al hebben, die vol zitten met de waarden en de overwegingen die horen bij de landen waar ze uitkomen.
[0:09:55] Dat zijn dus de social media, een oogspringend voorbeeld, die komen met...
[0:10:00] De recommender algorithms en de normen en waarden van het land dat ze verscheept.
[0:10:07] En ten derde achterblijvende economische groei.
[0:10:11] Omdat de sectoren en industrieën totaal door AI worden veranderd.
[0:10:15] Als je daar niet bij bent kun je ook niet meer mee concurreren.
[0:10:18] Dus dat zijn drie vormen, drie bedreigingen die we het hoofd zullen moeten bieden.
[0:10:22] Dus ik zeg het denk ik ook met Macron...
[0:10:26] investeren, investeren in Europa in artificiële intelligentie.
[0:10:30] En dat wordt nu gedaan.
[0:10:32] Dat hebben we gisteren ook in die summit kunnen zien.
[0:10:34] Dus er worden met honderden miljarden gesmeten.
[0:10:36] En dat is ook wel het niveau van investering wat nodig is.
[0:10:40] Dus Ursula von der Leyen heeft ook aangekondigd dat er 200 miljard namens de Europese Commissie wordt geïnvesteerd.
[0:10:46] Maar Europa kan natuurlijk niet klakkeloos investeren.
[0:10:49] Je kan niet zeggen, we're throwing money at the problem.
[0:10:52] We moeten dat op een manier doen die past bij Europa, die consonant is met de fundamentele waarden.
[0:10:57] Dat is het Fundamental Rights Charter en de Universal Declaration of the European Convention of Human Rights.
[0:11:09] Die sense of urgency die er nu is, die is superbelangrijk.
[0:11:12] En dat moeten we, de verschillende rapporten die vorig jaar zijn gepubliceerd, Draghi-rapport, Niinisto-rapport, Letta-rapport en nog vele andere, geven allemaal aan, we moeten nu echt in de benen komen.
[0:11:24] Vervolgens moet je investeren en concentreren en selecteren op de dingen waar je op wil inzetten als Europa.
[0:11:30] Je kunt niet overal investeren.
[0:11:32] kampioen in worden en zeker niet in de gebieden waar Amerika en China al super groot in zijn.
[0:11:37] We zullen onze eigen keuzes daarin moeten maken.
[0:11:39] En nogmaals, ten derde, wij zullen dat moeten doen op een manier die verantwoord is.
[0:11:45] En dat wil zeggen dat de technologie die we maken passend is voor de Europese samenleving en de lidstaten.
[0:11:51] Dat die ook op een zichtbare, aantoonbare manier voor de bevolking die waarden in zich draagt en goede effecten heeft.
[0:11:58] En dat ze ook kunnen bijdragen aantoonbaar aan de grote opdrachten waar wij voor staan.
[0:12:03] Denk aan de UN Sustainability Goals of the Grand Challenges.
[0:12:08] En dat biedt ontzettend veel mogelijkheden voor innovatie.
[0:12:11] Ik geef het voorbeeld van privacy by design.
[0:12:14] Marleen kan daar ook veel over zeggen.
[0:12:17] Dat is een manier om technologie te gebruiken, maar zonder de privacy te schaden.
[0:12:23] En dan heb je een echte innovatie omdat je een aantal waarden tegelijk kunt bedienen... alleen maar omdat wij het slimme idee hebben gehad en daar ook business van hebben gemaakt.
[0:12:32] En dat kan voor explainable AI, dat kan voor gecontroleerde robotische systemen.
[0:12:38] Daar moeten we op inzetten.
[0:12:40] Er gebeurt al veel.
[0:12:42] Trouwens, die innovatie moet ook worden ingezet op regulering en de governance van die technologie.
[0:12:48] Dus net zo goed als we innovatief en creatief moeten zijn met betrekking tot technische innovaties, moeten we ook, en dat is het onderwerp van Lokke's bijdrage ongetwijfeld, omnibuswetgeving bijvoorbeeld, laten we het versimpelen, maar niet verzwakken, die wetgeving, zodat het wel krachtig blijft en doet wat het moet doen.
[0:13:07] maar niet onze principes afdoet aan onze principes.
[0:13:11] Er is al heel veel gedaan.
[0:13:13] En onze opdracht, en er wordt heel veel geïnvesteerd, en wat wij moeten doen in Nederland en in de verschillende lidstaten, is wij moeten aansluiten bij de grote initiatieven die vanuit Brussel komen, het geld wat beschikbaar wordt gesteld.
[0:13:25] Dus wij moeten meebewegen met Brussel.
[0:13:28] En wij moeten ook de capabilities hebben om mee te bewegen.
[0:13:31] En dat betekent investeren in onze kennisinstellingen, in ons universitaire onderzoeksveld op het gebied van AI en digitale technologie.
[0:13:40] En wij moeten in Nederland twee dingen doen, denk ik.
[0:13:43] Focussen op de dingen waar we sterk in zijn, waar we uitblinken... en daar AI in toepassen.
[0:13:48] Het is veel moeilijker om geld te verdienen in AI dan met AI.
[0:13:52] Als je AI gebruikt in watermanagement...
[0:13:55] In trade en finance.
[0:13:57] Waar zijn we nog niet heel goed in?
[0:14:01] Customs.
[0:14:02] Het kunnen kleine dingen zitten waar Nederland echt goed in is.
[0:14:04] Daar kan je AI in inzetten.
[0:14:06] En natuurlijk de no regrets.
[0:14:08] Waar iedereen AI zal gaan inzetten.
[0:14:10] Gezondheidszorg, energietransitie, smart mobility, smart cities, et cetera.
[0:14:15] Dus daar moeten we in doen.
[0:14:17] Ik herinner nog eventjes aan het feit dat dat verantwoord innoveren in Den Haag is uitgevonden door de Nederlandse organisatie voor wetenschappelijk onderzoek.
[0:14:25] We hebben tien jaar goede ervaringen daarmee.
[0:14:28] We hebben ook de agenda gezet in Brussel op het gebied van responsible innovation.
[0:14:32] Het komt er nu op aan om dat ook voor AI te gaan doen.
[0:14:36] We hebben hier het hoofdkwartier van Kern op de Fluwele Burgwal.
[0:14:40] Dat is een associatie waarin 30.000 AI mensen werkzaam zijn in onderzoek.
[0:14:45] ...hier hun hoofdkwartier hebben opgeslagen.
[0:14:49] En wij zijn, zoals al even werd gememoreerd... ...de initiatiefnemer, het ministerie van Buitenlandse Zaken... ...van de Global Re-Aim Commission.
[0:14:55] Dat gaat over het verantwoorde gebruik van AI in het militaire domein.
[0:15:00] Ook hebben we daar leiderschap getoond.
[0:15:01] En ik denk dat dat een heel goed signaal is... ...waarop we kunnen voortbouwen als je AI gaat toepassen... ...in het internationaal recht en het domein van vrede, recht en veiligheid.
[0:15:11] Dus we moeten slim kiezen...
[0:15:12] The inches we need are everywhere around us, maar we moeten wel tempo maken en we moeten het snel doen.
[0:15:18] Dank u wel.
[0:15:19] Dan ga ik over naar professor Morel.
[0:15:23] Dank.
[0:15:25] Ik wilde toch even haken naar de AI-strategie voor diplomatie, omdat dit allemaal waar is.
[0:15:30] Maar de vraag is, hoe vertaalt dat zich dan met jullie plannen zoals die nu zijn?
[0:15:34] Het eerste is dat jullie de waarde willen waarborgen.
[0:15:37] Dat gaat over mensenrechten, trust, safety, effectieve governance wereldwijd... en het vergroten van de impact van de AI Act om het Brussels effect te krijgen.
[0:15:49] Voor mij veronderstelt dat dat we geen mondiale overeenstemming hebben over de waarden... en dat we geen mondiale AI governance hebben... en dat we zonder efforts dat Brussels effect niet zullen krijgen.
[0:16:01] En in mijn ogen is beide niet waar...
[0:16:04] Ik denk dat we nog nooit zo'n snelle convergence hebben gezien over die ethical AI principles.
[0:16:09] Ik kijk even naar de OECD, die ook door Amerika, ze gaan nu een andere koers, maar er is eigenlijk geen discussie over wat die waarden moeten zijn.
[0:16:20] En ook die AI-definitie van de OESO, die zit in alle, ook onze AI-act.
[0:16:25] En dit zijn dan de waarden.
[0:16:27] En dan zie je dat het gaat over de mensenrechten, de democratische waarden, fairness, privacy.
[0:16:31] Nou kan nog een tijdje doorgaan, maar dat is het.
[0:16:34] En de OECD monitoort dat ook.
[0:16:36] Die hebben ook allerlei aanbevelingen aan de beleidsmakers hoe ze dat dan moeten doen.
[0:16:40] En dat wordt wereldwijd gemonitord met fantastische rapporten.
[0:16:44] We hebben de UN die het eens is over die ethical principles.
[0:16:48] Voor mij is de reality check dat het andersom is.
[0:16:50] Die AI-act is een gevolg van die harmonisatie en al die dingen.
[0:16:55] We hebben nu een poetiel wat daar doorheen gaat en die heet Trump.
[0:17:01] En daar moeten we mee dealen.
[0:17:02] Maar het is niet zo dat we de boer op moeten voor een AI-strategie om daar overeenstemming.
[0:17:08] Dat zou niet mijn prioriteit zijn.
[0:17:11] Ik denk dat die er wel is.
[0:17:14] Anders dan de GDPR, waar het 30 jaar geduurd heeft voordat die min of meer nu wel in 160 landen similar type wetgeving is.
[0:17:24] En dat noemen we dan het Brussels effect, dat iedereen dat overneemt, andere landen.
[0:17:28] Gaat dat, ik denk, met de AI-act veel sneller gebeuren.
[0:17:32] En de reden is dat ze geleerd hebben bij de AVG, bij de GDPR was het zo...
[0:17:38] dat die open normen er waren.
[0:17:40] En daarna ging iedereen het doen.
[0:17:41] En als we het fout vonden, dan gingen de toezichthouders ingrijpen.
[0:17:45] Nu is het zo dat de commissie een aantal standaarden heeft uitgezet... die april dit jaar los moeten komen.
[0:17:53] Ik heb ze hier op een rijtje staan.
[0:17:56] Dat is op alles.
[0:17:57] En die worden geharmoniseerd en aangesloten.
[0:17:59] Er is ook een bepaling dat er een code of practice moet komen... met de LLM-providers, die ook...
[0:18:05] in april er moet zijn.
[0:18:07] Ik denk dat daar de implementatie wereldwijd... en het Brussels-effect van de AI-act in gaat zitten.
[0:18:16] Dan heb je dat allemaal.
[0:18:19] Dan gaan we naar het tweede onderdeel, de weerbaarheid.
[0:18:22] En dan kom ik op het echte punt voor wat ik wil vertellen.
[0:18:25] En dat is ook wat bijdrage aan de open strategische autonomie.
[0:18:29] Dat is afhankelijkheden verminderen...
[0:18:32] en strategische investeringen om het zelf te doen.
[0:18:35] We moeten meer zelf doen en minder afhankelijk zijn van Big Tech... en ook de US die dan door die hele internationale overeenstemming loopt.
[0:18:45] En ik wil één ding zeggen wat ik zie en wat zo diep verankerd is... maar blijkbaar toch moeilijk over de bühne te krijgen.
[0:18:54] Als je niet eigen diensten hebt die al die waarden implementeren...
[0:19:01] dan gaan mensen niet over naar die diensten.
[0:19:03] Ze zijn zo gewend aan die Amerikaanse diensten... dat als we niet een goed alternatief hebben die die privacy borgt... dat ze niet overgaan.
[0:19:12] We zien nu dat iedereen overgaat van WhatsApp naar Signal... maar dat komt omdat dat nu een gelijkwaardig alternatief is.
[0:19:19] De hele financiële sector roept van we moeten onze eigen clouddiensten... maar ik zeg je, als die niet voldoen en hetzelfde niveau hebben... wat Big Tech nu levert, dan gaan ze niet over...
[0:19:30] Dus als het consequentie is dat we zelf blijven gebruiken, dan zal je onze wetgeving moeten handhaven tegen Big Tech.
[0:19:38] Want regels zonder handhaving, die bestaan niet.
[0:19:42] En we hebben allemaal gezien de dreiging van JD Vans.
[0:19:46] Als jullie handhaven tegen Big Tech, dan gaan wij uit de NAVO zelfs.
[0:19:50] Ik bedoel, om maar even de bizarre transactionele verhouding... Ik denk...
[0:19:57] dat handhaving de grote diplomatieke uitdaging is voor de komende tijd.
[0:20:02] En om dat goed te doen en om daar ook diplomatiek op in te kunnen zetten... heb ik twee inzichten die ik met jullie wil delen.
[0:20:13] De architectuur van de platforms, dat zijn bijvoorbeeld politieke beslissingen.
[0:20:18] En het tweede is, de VS en de EU reguleren anders.
[0:20:22] En als je dat niet begrijpt, dan begrijp je ook niet de weerzin tegen onze manier van reguleren.
[0:20:29] Nou, die eerste is, die heb ik niet verzonden, maar die is van Michel Kapoor.
[0:20:34] Als jij een platform hebt, dan bepalen de algoritmes wat je te zien krijgt.
[0:20:39] Wat er naar voren komt, wat er niet komt.
[0:20:41] En hoe je dus de wereld waarneemt.
[0:20:44] En dat wordt aangedreven door artificiële intelligence.
[0:20:47] En die bepalen hoe het platform eruit ziet.
[0:20:51] Kortom, die technologie oefent macht uit.
[0:20:53] Die macht zal alleen maar groeien.
[0:20:56] Met elke nieuwe app en mogelijkheden, en zeker met Gentic AI, waarin je een soort automatische assistenten hebt die zichzelf ontwikkelen.
[0:21:04] En die macht is toevertrouwd aan degene die die platforms maken, die de code schrijven.
[0:21:09] Daarom zeggen ze ook wel, lol is code, van Doris Lessig.
[0:21:15] Oh, code is lol.
[0:21:18] Voorbeeld is dat Musk het algoritme zo heeft getuned dat zijn eigen berichten overal terechtkomen.
[0:21:24] Hij bereikt nu 216 miljoen mensen in één keer.
[0:21:28] Hetzelfde gaat Facebook nu doen.
[0:21:31] Zuckerberg, iedereen valt erover dat hij zegt dat hij met de contentmoderatie stopt, maar dat is als het water aan het einde van de kraan.
[0:21:39] Negatieve sensationele bedrichten worden geëmplified door die algoritmes.
[0:21:44] En als je niet daar wat aan doet, dan heb je gewoon een probleem.
[0:21:49] Dus het is een enorme ophef over het stoppen met factchecken.
[0:21:53] Maar de echte pijn zit in de techbros die aan de algoritmes draaien.
[0:21:57] Ik kom zo op terug.
[0:21:59] Die VS en die EU reguleren anders.
[0:22:01] En dat zit hem in dat de US op harm-based intervenieert.
[0:22:06] Die laat alles los en grijpt in als het misgaat.
[0:22:10] Wij doen dat rights-based en op basis van het voorzichtigheidsbeginsel.
[0:22:14] Wij reguleren vooraf.
[0:22:17] Voorbeeld is, wij vinden dat burgers recht hebben op beveiliging van hun persoonsgegevens.
[0:22:22] Daar hebben we allemaal regels voor in de AVG.
[0:22:24] De Amerikanen zeggen, nou, we hebben helemaal geen regels voor de beveiliging van persoonsgegevens, maar als je ze kwijtraakt, dan moet je iedereen melden en krijg je een class action.
[0:22:32] In het begin dacht ik, ik ben hartstikke Europees, hoe kan dat nou dat je geen regel hebt voor het beveiligen van persoonsgegevens?
[0:22:41] En het antwoord is dat de uitval daar zo groot is dat de beveiliging van alle persoonsgegevens in Amerika beter is dan bij ons.
[0:22:49] Ja?
[0:22:51] Wij reguleren AI van tevoren.
[0:22:53] De AVG wil persoonsgegevens van tevoren.
[0:22:54] Dat betekent, je moet een impact assessment maken.
[0:22:57] Je moet kijken waar de risico's zitten.
[0:22:59] Dan kijken of je die kan adresseren.
[0:23:03] En dan een assessment doen wat het risico is.
[0:23:05] Is het laag, mag je gaan.
[0:23:06] Medium, moet je door.
[0:23:07] En uiteindelijk als het hoog is, moet je naar een autoriteit.
[0:23:09] Mijn punt is, je moet allerlei procesdingen doen.
[0:23:13] En daar handhaven we op.
[0:23:15] Google krijgt een boete als je een DPIA niet hebt.
[0:23:19] Uber krijgt een boete bij onze eigen AP omdat ze een contractje niet hebben.
[0:23:22] Ik zeg je, dat heeft geen enkele impact of zicht op wat dat nou echt aan impact op de privacy was.
[0:23:28] Gewoon op procesdingen.
[0:23:30] Dat wordt ervaren in de EU of in de US als betutteling.
[0:23:36] Het gaat erom doen we harm.
[0:23:38] Maar jij handhaaft op een policy die we niet hebben.
[0:23:42] De irritatiedat denken zij dat dat een soort tariffs zijn... en ze slaan terug dadelijk met tariffs.
[0:23:48] Ondertussen wordt daar al gehandhaafd.
[0:23:49] We hebben geen enkele handhaving op algoritmes nog in Europa.
[0:23:54] Ze hebben op basis van oneerlijke handelspraktijken... ze hebben het op kinderdata die verzameld was, die niet mocht... waarin gewoon orders worden gegeven om de algoritmes te dingen.
[0:24:04] De FTC rolt een Operation AI Comply or Bias uit... en oneerlijke handelspraktijken...
[0:24:11] Mijn punt is, als we gaan handhaven op Europese procesregels... komt de irritatie zo ontzettend groot dat we om moeten denken.
[0:24:23] We moeten handhaven op pick-our-fights.
[0:24:26] Waar het echt pijn doet, dat zit op hun verdienmodellen.
[0:24:29] Waar de VS ook zou handhaven, waardoor je de court of public opinion hebt... en om Trump heen kan.
[0:24:36] En we moeten samen optrekken, en nou komt hij voor de diplomatie...
[0:24:39] Met de UK, met Australië, met Canada.
[0:24:43] Om tegelijk op dat soort punten waar het echt mis gaat te handhaven.
[0:24:47] Wat we niet moeten doen is nieuwe wetten.
[0:24:49] We hebben er echt genoeg op al die punten.
[0:24:50] En ik kan het uitleggen, kunnen we al handhaven.
[0:24:54] En als ik zie in de krant dat op die top wij samen gaan optrekken met Frankrijk en Duitsland... om Big Tech voor AI onder DSA te brengen, de Digital Services Act... om die op die manier te handhaven, weer nieuwe regels... nou, ik denk dat Trump helemaal losgaat.
[0:25:12] Dus we kunnen algoritmes inspecteren, we kunnen al deze dingen doen... en dat is de prioriteit en waar we ook op moeten...
[0:25:22] diplomatie op moeten zetten.
[0:25:26] Dank voor uw betoog.
[0:25:27] Dan ga ik over naar de laatste spreken.
[0:25:29] Dat is mevrouw Stikker.
[0:25:32] Altijd heel spannend dit ook.
[0:25:34] We gaan niet onderling.
[0:25:39] Dank voor de uitnodiging en dat het hier ook op de agenda staat.
[0:25:43] Een paar dingen.
[0:25:45] Er is al veel gezegd, dus je moet toch even iets anders naar wat ik had voorbereid.
[0:25:48] Het eerste is, waar we vaak niet over horen, is de stem van de samenleving.
[0:25:52] Die is best sterk aan het worden als het gaat over AI.
[0:25:55] Dus zowel rondom de top, maar ook maatschappelijke organisaties die zich aan het bundelen zijn.
[0:26:00] En de effecten van AI op de samenleving zijn niet altijd in beeld.
[0:26:04] Bijvoorbeeld op arbeid.
[0:26:06] We kunnen ook spreken over de grote diefstal.
[0:26:08] Dus het werk van mensen wordt opgezogen door AI.
[0:26:12] En vervolgens wordt jouw baan verdwijnt.
[0:26:15] Je mag nog gaan checken of AI het goed heeft gedaan.
[0:26:19] Dus de natuur van de basis van je baan verandert.
[0:26:22] Wat mij opvalt is dat deze hele discussie, dat hele perspectief van arbeid en van de werknemer of van de arbeider, maar ook zelfs die van de ondernemer, van de MKB'er, eigenlijk niet in beeld is.
[0:26:33] Wat voor effecten heeft dit op de weerbaarheid en de strategische autonomie van mensen in het land?
[0:26:39] Die gewoon simpelweg hun leven leiden en waarvan heel fundamentele dingen gaan veranderen.
[0:26:45] mag de vakbond zelf ook opdracht geven van AI zijn.
[0:26:47] Want die zou misschien een heel ander soort AI-toepassingen verzinnen, namelijk de kwaliteit van de arbeid versterken en niet het verdienvermogen van de ondernemer.
[0:26:56] Dus ik heb het idee dat we het echte gesprek over de steeds grotere disbalans van macht tussen mensen en degene die in staat zijn om AI te financieren, of dat nou overheden zijn of bedrijven zijn, of, laten we zeggen, het zijn vaak bedrijven, het zijn vaak
[0:27:13] venture capitalists, die definiëren waar wel of niet AI voor ontwikkeld wordt, dat we dat gesprek niet voldoende hebben gevoerd.
[0:27:20] Dat betekent dus dat een deel van die stem van die samenleving onvoldoende aanwezig is, maar die begint wel sterker te klinken.
[0:27:26] Dus ik zou zeggen, als we willen legitimeren dat er handhaving en wetten en dergelijke zijn op AI, dan moet je dat natuurlijk ook nog electoraal op deze manier weten te vertellen en uit te leggen.
[0:27:42] En ik mis ook die argumentatie op dit moment, de politieke argumentatie waarom je het zou willen doen.
[0:27:46] Want het wordt nu alleen maar gebracht als een strijd tussen China, Amerika en Europa.
[0:27:51] Als een strijd van bedrijven, of we wel voldoende bedrijvigheid hebben, of we wel innovatief voldoende zijn.
[0:27:56] En dan zeggen we, en gisteren was het met de prins, met de unicorn op de televisie, waarvan ik me afvraag of dit niet gewoon een politieke positie is en hoort bij het Koningshuis.
[0:28:04] Ik snap niet waarom we dit toestaan, dat dit gebeurt.
[0:28:07] Maar er staat daar het belang van investeringen voor unicorns.
[0:28:12] Het probleem van unicorns is dat ze gebouwd worden met venture capital.
[0:28:15] En venture capital is op zoek naar een exit.
[0:28:18] En de enige exit van een unicorn zijn de softbanks van deze wereld.
[0:28:23] Zijn de Amazons van deze wereld.
[0:28:24] Zijn de Musk van deze wereld.
[0:28:26] Dus we zien nu ook Open AI gestart als een soort zogenaamd open traject.
[0:28:30] Is geprivatiseerd en Musk legt daar nu 100 miljard voor op tafel.
[0:00:00] 100 billion dollar.
[0:28:38] We denken, en daarom is de padstelling nu die gepresenteerd wordt, van of we gaan competitief meewerken en vrijbaan voor AI-investeringen.
[0:28:49] Maar dan moeten we dus geen wetten en al die regels, die zijn vervelend.
[0:28:54] Want anders kunnen we niet competitief zijn.
[0:28:56] De manier waarop we op dit moment nadenken over de investeringen, dat zuigt onze eigen talent en onze eigen ondernemingen rechtstreeks diezelfde wereld in.
[0:29:04] En dan moeten we ons ook bedenken dat een groot deel van die wereld... niet meer gestaten zijn tussen Amerika, Rusland en China.
[0:29:11] Dat zijn de grote kapitaalverschieters daarachter.
[0:29:14] Dus ik zou ook heel graag een analyse willen... over de kapitaalbewegingen achter AI.
[0:29:18] Ik heb het idee dat we het nu doen alsof het een geopolitieke strijd is.
[0:29:22] Maar een deel van die strijd zit helemaal niet meer geopolitiek in elkaar.
[0:29:25] Ik zou het prettig vinden om dat eens een keer op die manier te zien.
[0:29:28] Want dat betekent misschien ook dat je ook in Europa... diezelfde tendensen in beeld moet krijgen.
[0:29:32] Het is niet zo dat in Europa...
[0:29:34] iedereen plotseling hogere waarden heeft, want die zijn er in Amerika ook, maar die hebben geen stem daar meer.
[0:29:39] In Amerika is het net zo'n beweging gaande als hier in Europa.
[0:29:42] Het enige is, ze hebben daar geen kans meer, omdat daar kapitaal veel hoger geacht wordt dan welke andere waarden dan ook.
[0:29:48] En dat is in Europa net zo goed aan de gang.
[0:29:50] Het tweede wat ik merk, dat ik denk, ik hoor hem niet onvoldoende terug, als het over weerbaarheid gaat, is de weerbaarheid in de zin van ecologische systemen.
[0:30:01] We weten dat er een
[0:30:03] Een verdubbeling van de exerciteitsverbruik is om al die ambities rondom data en AI datacenters te kunnen mogelijk maken.
[0:30:11] Wat voor een afwegingskader levert dat op?
[0:30:14] Gaan we datacenters voor wonen of gaan we datacenters voor AI leveren?
[0:30:18] Hebben we daarover doorgedacht?
[0:30:20] Dus in de zin van, kunnen we dat, en dat lijkt me bij uitstek iets wat je ook internationaal met elkaar moet afspreken.
[0:30:26] Hoe gaan we om met de beperkte mogelijkheden van energievoorziening op dit moment?
[0:30:33] Ik denk dat het gesprek over welke AI je nou wel of niet wil, dat die heel relevant is.
[0:30:37] Voor welke thema's en onderwerpen vinden we het relevant en kun je werkelijk meerwaarde genereren.
[0:30:44] Een vraag die je daarbij zou moeten stellen is of je daar in ieder geval een milieueffectenrapportage op loslaat.
[0:30:49] Dat moet iedereen.
[0:30:49] Of je nou een space-stapel wil bouwen of een datastapel wil bouwen.
[0:30:53] Dus waarom hebben we niet dezelfde mechanismen, zoals we dat ook voor de farmaceutische industrie en voor de levensmiddelenindustrie, dat je gecontroleerde
[0:31:02] trials moet hebben.
[0:31:03] Dus dat je een moratorium op toepassen van AI zet en zegt je kan pas dat toepassen als je net de trial achter... Daar hebben we gewoon modellen voor.
[0:31:12] Het andere is, en ik denk dat dat de grote kracht zou kunnen zijn, en dat is een beetje wat ik hier net ook hoorde, op het moment dat je duidelijk maakt onder welke regieën, welke regels er zijn voor het spel...
[0:31:22] Dan opent zich een markt voor nieuwe partijen.
[0:31:25] Dan kunnen er weer partijen toetreden.
[0:31:27] Als je de regels van het spel verandert, verandert het speelveld.
[0:31:31] En dan komen we op het laatste wat ik wil noemen.
[0:31:33] Er zijn wat initiatieven rondom.
[0:31:35] Ik wil het wel hier noemen van Bert Hubert over Cloud CodeWijk.
[0:31:39] Daar word ik echt heel erg enthousiast van.
[0:31:41] Dat idee van een fysieke eigen infrastructuur die je nu voor cloud nodig hebt en voor data en AI.
[0:31:48] Maar dan wel, en dat zou ik wel zeggen, onder publiek eigenaarschap.
[0:31:52] En dat wordt ook echt relevant voor iedereen die we ondernemen.
[0:31:55] Is dat je zal nooit meer dezelfde datapositie kunnen verkrijgen die op dit moment Big Tech heeft.
[0:32:02] Je hebt ook kleinere datasets trouwens nodig dan wat iedereen roept.
[0:32:05] Het is niet zo dat large language models ongebreid wat groter moeten worden.
[0:32:09] Zowel niet op het gebied van data en ook niet op het gebied van chips.
[0:32:11] Dat laat ook diep ziek zien.
[0:32:13] Dus je kan ook met kleinere investeringen heel veel effect hebben.
[0:32:16] Maar je moet dan wel eens werken aan een data trust of een data comments.
[0:32:19] Waarbij je een gemeenschappelijk eigenaarschap publiek gegarandeerd zet.
[0:32:23] Zodat ondernemers daar gebruik van kunnen maken.
[0:32:25] Maar dat ze het zich niet kunnen toe-eigenen.
[0:32:27] En ik denk dat dat het grote vraagstuk is.
[0:32:29] Wie wordt eigenaar van AI?
[0:32:31] En als dat Big Tech is of de Europese variant van Big Tech.
[0:32:34] Dan hebben al die ondernemers, MKB, alle arbeiders en werknemers helemaal niets meer te zeggen.
[0:32:41] Dank u wel.
[0:32:42] Dan ga ik over naar de vragen vanuit de Kamerleden voordat ik u het woord geef.
[0:32:47] Het verzoek is om echt aan te geven aan wie uw vraag richt, zodat niet iedereen hoeft te reageren.
[0:32:54] Maar u mag natuurlijk, als u op uw collega's wat wilt toevoegen, mag u dat natuurlijk doen.
[0:32:59] Dan geef ik het woord als eerste aan de heer Van Liesen namens de PVV.
[0:33:05] Ja, voorzitter, dank voor het woord.
[0:33:08] Mijn eerste vraag die zou ik graag willen stellen aan de heer Sheik.
[0:33:13] Met betrekking tot de rol die Nederland voor zichzelf kan spelen zonder daarvan te veel afhankelijk te zijn van de Europese Unie.
[0:33:22] En dat in het perspectief van die diplomatie.
[0:33:26] De heer Sheik.
[0:33:33] Ja, als ik u goed begrijp, het risico van Nederland om te afhankelijk te worden van Europese projecten.
[0:33:39] Wat mij betreft is dat risico zeer klein.
[0:33:43] Het grote punt is de VS en China.
[0:33:45] Dat zijn eigenlijk de twee grootmachten op het gebied van AI.
[0:33:47] En dat zit overal ergens in.
[0:33:51] Die afhankelijkheid zien we ook al dat die gebruikt wordt.
[0:33:53] Dat die tegen ons wordt ingezet.
[0:33:55] Dat hebben we zeker vanuit de VS ook wel.
[0:33:57] Dus wat mij betreft zouden we niet afhankelijk genoeg van Europa kunnen zijn.
[0:34:02] Want op onszelf zouden we dit niet kunnen doen.
[0:34:04] En we zullen ergens op Europees niveau, dat is de enige schaal die we hebben.
[0:34:08] Ik heb daar geen illusies over.
[0:34:09] Dat is een ongelooflijk grote opgave.
[0:34:11] Maar als ik de teneur van het Draghi-rapport zie, dan is er wel een beweging in Europa gaande om aan te geven van we hebben gewoon stevig industriebeleid nodig en grote investeringen nodig om op dit gebied van digitalisering mee te komen.
[0:34:23] Ja, dan moeten we dat denk ik in Europees verband doen.
[0:34:25] Het alternatief is de huidige afhankelijkheid van de VS, maar ook de afhankelijkheid van nieuwe Chinese systemen.
[0:34:30] En dat is wat mij betreft het grootste risico.
[0:34:37] Dan ga ik over naar de heer Van den Burg namens de VVD.
[0:34:40] Ja, voorzitter, buitengewoon genoten van alle vijf de sprekers.
[0:34:45] En in drie gevallen denk ik, ik wil weer studeren.
[0:34:48] Dat gezegd hebben we nu een vraag aan de heer Van den Hoven.
[0:34:51] Want u zei heel nadrukkelijk, concentreer je.
[0:34:55] En waarop zouden we ons dan moeten concentreren?
[0:34:59] Ik had twee categorieën.
[0:35:04] De ene is de no regrets.
[0:35:06] Dat zijn de dingen waar we sowieso mee aan de slag moeten.
[0:35:10] En denk bijvoorbeeld aan de gezondheidszorg.
[0:35:12] We hebben te maken met demografische veranderingen.
[0:35:14] We komen handen aan het bedtekort en in allerlei andere sectoren ook.
[0:35:18] Daar liggen echt enorme kansen voor AI, mits verantwoord ingezet.
[0:35:22] Het is nu zover dat inderdaad die...
[0:35:26] AI ook echt aan het bed kan komen.
[0:35:28] We werken samen met Erasmus MC bijvoorbeeld... waar we op de intensive care nu aan gaan kijken.
[0:35:33] En dat kan ontzettend veel goeds doen.
[0:35:36] Maar je moet er ontzettend goed over nadenken.
[0:35:38] Dus dat is een voorbeeld van waar je dus een no-regret...
[0:35:41] En hetzelfde geldt voor de energietransitie.
[0:35:43] Overal waar geoptimaliseerd wordt, daar is AI fantastisch bruikbaar.
[0:35:48] Dus dat zijn de no regrets.
[0:35:51] En dan vervolgens zijn er dingen, is er een categorie van dingen... waar Nederland heel erg goed mee in is.
[0:35:57] Kijk, als je algemene AI gaat ontwikkelen... je ziet nu het voorbeeld met DeepSeek en OpenAI... dan is het zo weg.
[0:36:04] Je moet ervoor zorgen dat het ook bij je blijft... dat het ook iets is wat je zelf in de hand kan houden...
[0:36:11] Dus denk aan watermanagement.
[0:36:13] Water en Nederland zijn synoniem in de wereld.
[0:36:16] Daar hebben we ongelooflijk veel domeinkennis van.
[0:36:19] Dat is zwaar geïnstitutionaliseerd.
[0:36:21] Ons bedrijfsleven is daarop toegespitst.
[0:36:24] Dus als je daar AI kan gaan gebruiken, dan kun je daar een enorme leverage krijgen.
[0:36:29] En datzelfde geldt voor...
[0:36:30] Ik noemde het voorbeeld van customs, handel, finance, fintech.
[0:36:35] Nederland best een sterke positie in.
[0:36:38] Maar ook bijvoorbeeld zo'n ander domein als vrede, recht en veiligheid... en internationaal recht hier in Den Haag.
[0:36:44] Dat zijn allemaal gebieden die straks enorm veel AI-toepassingen zullen zien.
[0:36:49] Daar kunnen wij nu nog...
[0:36:51] iets in claimen, daar kunnen we iets in doen.
[0:36:53] En on the back of that kan je algemenere AI-capabilities ontwikkelen.
[0:36:58] Maar ik zou zeggen, dat zijn de twee categorieën waar we echt keuzes voor zouden moeten maken en daar ook echt getarget onze investeringen op zouden moeten doen.
[0:37:07] En daar vervolgens dan de wereld blij mee maken, hopelijk.
[0:37:10] En dat is de link naar onze diplomatie.
[0:37:13] Daar moeten we voor op pad.
[0:37:15] Maar daar zullen we voor gevraagd worden, is mijn idee, is mijn suggestie.
[0:37:21] De heer Sik Stijkstra namens Nieuw Sociaal Contract.
[0:37:24] Ja, dank voorzitter.
[0:37:24] En mijn welgemene excuses voor mijn vertraging.
[0:37:27] Ik heb helaas niet alle sprekers van tevoren kunnen horen.
[0:37:30] Ik heb wel een vraag voor de heer Scheich.
[0:37:32] Misschien dat hij hier al eens op in is gegaan bij zijn verhaal.
[0:37:34] In dat geval excuses, stap vooral snel over mijn vraag heen.
[0:37:37] Maar eigenlijk in aanvalling op de vraag van de heer Valize.
[0:37:41] Als het dan gaat om die investeringen.
[0:37:44] Heel lang, voor mijn gevoel, was Amerika de nummer één koploper op AI.
[0:37:48] Toen kwam DeepSeek en had China een enorme inhaalsprong gemaakt met eigenlijk een relatief bescheiden kapitaal van 6 miljoen dollar.
[0:37:57] Dat gaf bij mij toch wel het idee van het speelveld is misschien toch veranderd.
[0:38:00] Eerdere paradigma's die we hadden, dat je vele tientallen tot honderden miljarden nodig had voor een hoogwaardige...
[0:38:06] AI-toepassing, dat dat misschien niet helemaal meer het geval is en je nu ook met een bescheidene investering ook al heel grote meters kan maken en jezelf kan meten met de grootmachten.
[0:38:17] Heeft u een inzicht in hoe dat het speelveld mogelijk verandert voor de kapitaalkracht en de investeringspolitiek die we als Nederland of Europa nodig hebben om onszelf op de kaart te kunnen zetten?
[0:38:30] Ja, dank voor de vraag.
[0:38:31] Ik heb alleen maar hierop gehind in mijn introductie, dus ik ben blij met de kans om het nu toe te lichten.
[0:38:36] Dit is inderdaad, denk ik, een van de grote discussies die nu in de AI-wereld plaatsvindt.
[0:38:40] In één week hebben we eerst Stargate gehad.
[0:38:42] Grote Amerikaanse aankondiging tot 500 miljard in vier jaar tijd.
[0:38:46] Schaal die niet te overtreffen is en niet op mee te komen is.
[0:38:49] En toen kwam inderdaad ook DeepSeek.
[0:38:52] Wat ik zo zie, ook zeker uit de markt, het heeft ook zeker op een bepaalde dag, is het koers van Nvidia gekelderd, is ook alweer hersteld.
[0:38:58] Het heeft zeker niet het belang van grote investeringen verminderd.
[0:39:03] Het heeft wel een bepaald deel van het veld waarschijnlijk wat meer gedemocratiseerd.
[0:39:06] Dus er gaat ongetwijfeld, maakt het AI toegankelijker voor velen.
[0:39:11] Ik verwacht dat dit ook zeker effecten zal hebben.
[0:39:12] Ik verwacht met name ook dat landen in de Global South opeens large language models kunnen gaan ontwikkelen met de open source software van DeepSeq.
[0:39:19] En dat is iets waar ze
[0:39:21] tot voor kort dat zelf niet hadden gekund.
[0:39:23] Tegelijkertijd, en dat is denk ik het vervolg van uw vraag... biedt dit nou mogelijkheden voor Europa?
[0:39:29] Daar zit wat mij betreft een andere, meer... een grotere waarschuwing achter die recente ontwikkelingen.
[0:39:35] En daarin liggen eigenlijk Stargate en Diepziek op één lijn.
[0:39:38] Ze hebben dezelfde les.
[0:39:39] Namelijk, hun succes is gebaseerd niet alleen... doordat zij goed hebben investeerd in AI-modellen... maar dat zij die modellen hebben gecombineerd... met een breder ecosysteem dat er helemaal op afgestemd is.
[0:39:52] Dus dat was de gedachte achter Stargate voor Trump.
[0:39:54] Dat is AI-infrastructure.
[0:39:56] Dus hij ging niet investeren in modellen.
[0:39:57] Hij ging investeren in datacenters... in de energie die nodig was voor die datacenters... en in de toekomst zelfs gespecialiseerde chips... die dan niet meer uit Taiwan hoeven te komen... maar die dan geoptimaliseerd kunnen worden voor open AI-toepassingen...
[0:40:08] Met andere woorden, succes in het Amerikaanse grote model is de combinatie van die.
[0:40:13] Hetzelfde geldt ook voor DeepSeek.
[0:40:15] De grote efficiëntie van DeepSeek komt omdat het een bedrijf is dat de eigen datacenters runt... dat maar beperkt toegang had tot geavanceerde chips uit de VS... dus heel precies moest kijken hoe de kracht daarvan kon optimaliseren... en het ook eigen software heeft ontwikkeld om dit hele proces mogelijk te maken.
[0:40:30] Met andere woorden, DeepSeek heeft het misschien iets opener gemaakt... maar de grote les van beide modellen is eigenlijk...
[0:40:36] Je wordt goed in de AI als je het tegelijkertijd weet te combineren met een strategie die samenhangt met je cloud, waar al je data in zit, met chips, technologie, met energie, met grondstoffen, et cetera.
[0:40:46] En daarop heeft Europa echt nog heel veel te doen.
[0:40:50] Ja, professor Morel.
[0:40:52] Ja, dank u. Nou, ik ben het helemaal eens.
[0:40:56] En als je zegt, wat is de nationale strategie?
[0:40:59] Wat zouden wij moeten doen?
[0:41:00] Is het die infrastructuur daarop inzetten... zodat al onze bedrijven en ook kleinere bedrijven...
[0:41:06] dat kunnen gebruiken.
[0:41:07] En daar zijn ook wel initiatieven voor.
[0:41:09] Maar daar zijn we dan, vergeleken bij Frankrijk, heeft dat dan al helemaal omarmd.
[0:41:13] En ik geloof dat er hier dan nog discussie is.
[0:41:14] En daar is de politiek wel echt aan zet.
[0:41:17] Van, zetten we daarop in?
[0:41:19] Die infrastructuur is echt kritisch.
[0:41:21] Ik ben zelf betrokken bij TNO, bij het trainen van een Nederlands taalmodel.
[0:41:26] En dat is het tweede deel waarvan ik zou zeggen, nou dat is iets wat ik dan in aanvulling op zou willen benadrukken.
[0:41:34] Kijk,
[0:41:34] We hebben educatie.
[0:41:36] Als je daar niet op Nederlandse taal getrainde modellen werkt... Big Tech is het Nederlandse taalgebied klein.
[0:41:46] Dat is met name getraind op buitenlandse teksten.
[0:41:50] Dat betekent dat wat eruit komt vooral vertaalde dingen zijn.
[0:41:53] En daar verlies je ook wel je cultuur, je finesse van je taal.
[0:41:58] En dan is het zo, als je dan zegt hoeveel heeft TNO gekregen hiervoor...
[0:42:03] Ik zie dat ze dat met veel minder data gaan doen.
[0:42:06] Als je hele goede kwaliteit data hebt, kan dat ook.
[0:42:09] Dus daar zijn ze ook allemaal hoe je dat dan pseudonymiseert en weet ik wat erbij geholpen.
[0:42:14] Dat is echt ook innovatie om dat met de waarde te doen.
[0:42:18] Maar ja, dan krijgen ze, weet ik geloof, 10 miljoen of zo.
[0:42:20] Ik wil niet flauw doen, maar dat is dan wel weer erg weinig en heel enthousiast geld.
[0:42:25] En dan zitten ze te woekeren met het geld.
[0:42:27] Dus ik denk infrastructuur, infrastructuur, infrastructuur, Nederlandse taalmodellen en dan specifiek verder trainen voor alle toepassingen voor gemeentes.
[0:42:39] Een andere voor educatie enzovoort.
[0:42:44] Professor Van Hoven?
[0:42:44] Ja, misschien toch ook als aanvulling daar nog op.
[0:42:46] Dat bedoelde ik met meebewegen met initiatieven in Brussel.
[0:42:52] Er zijn nu die ideeën voor AI factories.
[0:42:55] Dat is inderdaad computing power.
[0:42:58] Dat zouden wij in Nederland samen gaan doen, als ik het goed begrepen heb, met Finland.
[0:43:01] Dus dat zou niet hier landen.
[0:43:05] Maar dat zijn wel hele belangrijke dingen om op in te tekenen.
[0:43:07] En zorgen dat je daarmee meedoet.
[0:43:09] Omdat dat echt basisvoorzieningen zijn.
[0:43:11] Net zo goed als het stimuleren van het wetenschappelijk onderzoek aan Nederlandse universiteiten.
[0:43:16] Dus niet bezuinigen daarop.
[0:43:18] Dat is echt wat je nodig hebt om mee te kunnen doen in de toekomst.
[0:43:22] Mevrouw Stikker.
[0:43:24] Misschien is het goed om in dit kader ook het over de Eurostack te hebben.
[0:43:28] Waar je net aan refereert is dat we het stekdenken al zodanig moeten leren.
[0:43:35] Dat er een samenspel is in infrastructuur, in data, in algoritmes, in modellen.
[0:43:42] En dat je het een niet zonder het ander kan zien.
[0:43:46] En dat als we het hebben over datacenters, dan zijn dat niet meer per se dataopslag.
[0:43:50] Maar het zijn ook echt werkomgevingen.
[0:43:53] Het zijn bijna productieomgevingen.
[0:43:55] En productieomgevingen zijn ook belangrijk om überhaupt iets uit te proberen.
[0:43:58] En dat toegankelijk te houden, ook vanuit het MKB-perspectief.
[0:44:04] Of voor maatschappelijke organisaties, of voor publieke organisaties.
[0:44:07] Dus Eurostack is een initiatief om dat denken over die technologie die we nodig hebben in Europa... en die strategische autonomie, om dat door te denken in die verschillende lagen.
[0:44:17] En dan wel te zeggen dat het samenhangt, dus dat je het in samenhang moet zien.
[0:44:21] En dat het betekent ook dat je het interoperabel maakt...
[0:44:24] En een van de problemen die men zegt van ja, een oplossing, wij kunnen als overheid alleen nog maar naar Amazon toe, want dat is een oplossing die alles biedt.
[0:44:33] Tegenover dat idee van one stop shop staat het beeld van de Bijenkorf model.
[0:44:40] Waarbij je zegt, zolang partijen interoperabel diensten kunnen bieden, kun je het ook bij verschillende partijen afnemen.
[0:44:48] En kan je gezamenlijk tot een goede oplossing komen voor een grote partij als een overheid of een grote institutie.
[0:44:54] Dat betekent dat je ook toetreding mogelijk houdt.
[0:44:57] Dus door interoperabiliteit centraal te stellen, open standaarden, interoperabiliteit, betekent het dat je een markt creëert waar nog steeds partijen aan kunnen toetreden.
[0:45:06] En ik denk dat dat het allercruciaalste is voor dit moment als we het over Draghi-investeringen hebben.
[0:45:11] Dat het niet tot een paar unicorns leidt, maar dat het leidt tot een groot ecosysteem waar we tech inderdaad toetreden, dat de partijen toe kunnen blijven treden.
[0:45:20] Dat is het grote verschil met wat voor strategie er in Amerika of in China ook is.
[0:45:25] Eens in toevoeging.
[0:45:27] Dat Eurostack-model, daar verschijnt morgen een rapport over.
[0:45:30] Ik heb eraan bijgedragen ook.
[0:45:31] En dat zal aangeboden worden aan het Europese parlement en de Europese commissie.
[0:45:34] Een vrij uitgebreid rapport met aanbevelingen voor de Eurostack.
[0:45:39] Dank.
[0:45:40] Professor van der Hoven, het is een leuke discussie aan het worden.
[0:45:45] Ik wou daar nog over die interoperabiliteit en het stekdenken ook nog eventjes aanvullen.
[0:45:50] Dat het Letta-rapport, dat gaat over de Single European Market, bepleit dat er een vijfde vrijheid moet komen.
[0:45:57] Een vrij verkeer van personen, goederen.
[0:46:00] diensten en kapitaal, maar ook van kennis en onderzoek en dus alle dingen die in de stek zitten, die moeten vrij in Europa kunnen bewegen.
[0:46:10] Heel belangrijk.
[0:46:12] Dank.
[0:46:12] Dank ook voor de levendige discussie die ontstaan is.
[0:46:16] Dan ga ik naar de heer Van Liesen voor zijn tweede vraag.
[0:46:19] Ja, voorzitter, dank voor het woord.
[0:46:20] Maar volgens mij mag u ook nog een vraag stellen.
[0:46:23] Nou, ik laat jullie eerst.
[0:46:25] Ik pak straks wel.
[0:46:25] Oké, dan had ik nog een vraag met betrekking... Ik moet even spreken, want ik had erop geanticipeerd dat u ook een vraag zou stellen.
[0:46:33] Die... Nee, ik sta even... Zal ik anders toch mijn vraag stellen?
[0:46:39] Dan geef ik u even de tijd om na te denken.
[0:46:42] Ik zit even in het dilemma met betrekking tot... geven we de maximale vrijheid aan AI om het maximale eruit te halen... zodat het echt zoveel innovatief... of willen we juist het gaan beperken?
[0:46:53] Willen we kaders gaan stellen, wetten?
[0:46:55] En professor Morel triggerde me wel een beetje van... wij hebben een heel ander model dan de Amerikaanse... waar de Amerikanen zeggen...
[0:47:02] ga maar los, we kijken wel wanneer je tegen een muur aanloopt... en dan krijg je een grote claim als je iets fout hebt gedaan.
[0:47:08] En wij zeggen nee, we gaan eerst alle spelregels bedenken... en dan gaan we de mensen laten lopen in die race.
[0:47:13] Hoe kijkt u daar tegen, professor Morel?
[0:47:17] Het gekke is dat ik door nu 35 jaar daarnaar te kijken... en aan beide kanten te werken, zie dat uiteindelijk het resultaat...
[0:47:25] ...van hoe zij denken iets moet bewegen in de maatschappij... ...hetzelfde is.
[0:47:30] Alleen ze komen met de regulering... ...worden ze steeds preciezer... ...al naar gelang iets uitgekristalliseerd is.
[0:47:36] Maar wat ik hier wil zeggen is dat... ...we hebben al die wetten... ...en uiteindelijk leiden die ertoe... ...als je het voorzichtigheid beginselt... ...is dat er consumenten geen schade wordt toegebracht... ...dat er niet wordt gediscrimineerd... ...dat ze niet hun privacy wordt geschonden... ...en mijn voorstel is om vooral te handhaven...
[0:47:54] op die onderdelen waar dat ook echt zo is.
[0:47:58] Zodat het ook uit te liggen is, we handhaven hier... want consumenten worden hier misleid.
[0:48:03] Of je wordt met verslavende technieken hier alsmaar op die platforms gehouden.
[0:48:08] En dit zijn die verslavende technieken.
[0:48:10] Je wordt erin getwikt om toestemming te geven met dark patterns...
[0:48:16] Of, zoals Google had in Amerika, die hadden een opt-out die je al heel moeilijk moest vinden, maar die hadden een opt-out voor verzamelen van locatiegegevens, waar heel veel geld mee verdiend wordt in het kader van targeted advertising.
[0:48:28] En toen gingen ze die data alsnog wel vergaren.
[0:48:31] Als je ze daarop aanpakt...
[0:48:33] Die hebben net 300 miljoen afgetikt bij de toezichthouder.
[0:48:38] En nog weet ik hoeveel procedures.
[0:48:40] Mijn punt is, dat begrijpt iedereen.
[0:48:43] Ook in Amerika, het publiek.
[0:48:44] Dan win je in de court of public opinion.
[0:48:47] En dat zullen we nodig hebben.
[0:48:49] Want Trump zegt bij alles wat je tegen Big Tech doet... dat je een aanval doet op hun soevereiniteit... en dat ze uit de NATO gaan stappen.
[0:48:57] Ik...
[0:48:58] Snap je wat ik bedoel?
[0:49:00] Ik vind die voorzichtigheidsbeginsel in principe goed.
[0:49:06] dat je een risicoanalyse maakt.
[0:49:08] Maar het gekke is dat die Amerikanen dat ook doen.
[0:49:10] Want die zitten ook te kijken... hoe kan ik zorgen dat ik geen harm doe?
[0:49:13] Dan doen ze echt wel een risicoanalyse.
[0:49:15] En gaan ze ook kijken... het is het feit dat wij dat verplicht wettelijk voorschrijven.
[0:49:20] Ik zeg niet dat dat eraf moet.
[0:49:21] Ik zeg alleen misschien moeten we handhaven... niet op het ontbreken van een data protection impact assessment... of het ontbreken van een contractje...
[0:49:29] Bijvoorbeeld in het Uber-geval met die datadoorgifte... zou ik niet op het contract hebben gehandhaafd, maar gezegd... joh, we hebben data minimaliseren, je stuurt alles naar de overkant.
[0:49:37] Je stuurt veel te veel.
[0:49:40] Dus op de echte impact handhaven.
[0:49:43] Begrijp je wat ik bedoel?
[0:49:46] Ja.
[0:49:47] Dank.
[0:49:48] Ik zie mevrouw Stikker, die wil ook nog reageren.
[0:49:51] Ja, vaak wordt... Op zich is het heel interessant om die do not harm... Maar dan zeggen ze dat aan het begin en dan gaan ze het alsnog doen.
[0:50:00] En we zitten toch wel... We praten over een Amerika die bijna niet meer bestaat.
[0:50:06] En dat is wel problematisch.
[0:50:08] Dus de vraag is op dit moment wat Amerika nog is... zometeen na deze exercities die nu plaatsvinden.
[0:50:16] Bijna alle toezichthouders...
[0:50:18] zijn onthoofd of mensen zijn weggestuurd.
[0:50:22] Men wil helemaal geen toezicht meer.
[0:50:24] Dus het idee dat er nog daar toezicht gehouden zal worden... is vrij minimaal, in ieder geval de komende jaren.
[0:50:30] Maar Marleen, laten we ervan uitgaan dat dat zo is.
[0:50:34] Dan wil je toch dat wij ze aanpakken.
[0:50:36] De vraag is waarop.
[0:50:40] Ik denk dat door duidelijk te zijn wat je wel en niet verwacht... We hebben natuurlijk best goed gereguleerde markten.
[0:50:47] Neem de farmaceutische industrie.
[0:50:48] Overigens, wat ik interessant vind, als je AI wil toepassen in de zorg, dan heb je daar wel duidelijke trials waar je aan moet voldoen.
[0:50:56] En daardoor zitten daar, de guardrails zijn daar op orde.
[0:51:00] Waarom doen we dat niet als je AI ook wil implementeren in human resources management?
[0:51:05] Waarom doen we dat niet als je... We hebben gewoon modellen daarvoor.
[0:51:09] Dus er zijn een paar plekken waar we dus kennelijk die afweging goed maken.
[0:51:12] Daar kan je nog steeds heel erg innovatief zijn.
[0:51:14] Je kan nog steeds heel veel ondernemerschap daar creëren.
[0:51:17] Maar we hebben dat wel geborgd.
[0:51:19] Het tegenover elkaar zetten is eigenlijk een valse tegenstelling.
[0:51:25] Dus dat wij niet ondernemend kunnen zijn of niet competitief kunnen zijn... omdat er regels zijn.
[0:51:30] Ik denk dat wij kunnen competitief zijn en weer deelnemen aan die markt... omdat we regels hebben.
[0:51:34] Waardoor je ook in aanbestedingen en in opdrachtvertrekking kunt zeggen... als je daar niet al voldoet, dan kan je niet meedoen aan onze aanbesteding.
[0:51:43] Dus het biedt juist ruimte voor Europese ondernemers.
[0:51:47] Dank u wel.
[0:51:48] De professor van de Hof.
[0:51:48] Jij kunt alleen maar nog een keer benadrukken dat ik het zeer eens ben met wat Marleen zegt.
[0:51:53] En dat blijkt ook, daar hebben we heel veel voorbeelden van, ook bijvoorbeeld op het gebied van duurzaamheid.
[0:51:58] Dat als je die waarden als het ware centraal stelt en de technologieën en de diensten ontwikkelt zodat ze conform zijn, dan heb je...
[0:52:07] dan heb je echt iets nieuws te bieden waar de rest van de wereld ook erg in geïnteresseerd is potentieel.
[0:52:11] Ze zijn misschien even tijdelijk de weg kwijt, maar iedereen uiteindelijk is in veilige privacy respecting en duurzame oplossingen geïnteresseerd.
[0:52:19] Alleen als je het initiatief neemt en proactief in die lijn denkt, dan heb je ook extra kansen om te innoveren die anderen niet hebben, omdat ze gewoon hun ogen sluiten voor dat aspect van de werkelijkheid.
[0:52:34] Professor Seig, ook nog.
[0:52:35] Ja, misschien even op dit punt duid in het zakje.
[0:52:39] De oppositie die je heel vaak hoort, is dat ergens, het is of innovatie of het is regels.
[0:52:45] En het is een valse tegenstelling.
[0:52:47] Je zou zelfs in sommige situaties kunnen zeggen, met strenge regels, daar profiteert vooral Big Tech van.
[0:52:54] Want het zijn die grote bedrijven die makkelijk de compliance kunnen doen... en de nieuwe start-ups die moeten invechten, die hebben veel meer moeite.
[0:53:00] Dus het is in eerste maar de vraag, als Facebook en zo klaagt... of het echt zo erg is voor ze.
[0:53:05] Maar het grotere punt is dit.
[0:53:08] Het argument wordt vaak gemaakt, Europa loopt achter omdat het regels maakt.
[0:53:10] En dat is gewoon kauzaal niet correct.
[0:53:13] We hebben strengere regels van de digitale wereld vanaf de GDPR.
[0:53:17] En die zijn zo'n acht jaar in werking getraind.
[0:00:00] 2016, 2017, dat ze een beetje echt in werking zijn.
[0:53:22] Europa loopt al achter op de VS op het gebied van digitalisering vanaf 2000.
[0:53:26] Dat kan dus niet komen door de regels die Europa stelt.
[0:53:29] Europa is, en dat is uiteindelijk het kernpunt, investeren, investeren, investeren.
[0:53:32] Daar heeft Europa de slag op verloren.
[0:53:35] Dat punt, en dan zijn er nog regels later bijgekomen... maar die kun je niet zetten als oorzaak voor Europa's achterstand.
[0:53:43] Ja, mijn vraag heeft wat losgemaakt.
[0:53:44] Ik kijk ook naar de tijd.
[0:53:45] Ik zie dat we nog maar twee minuten hebben.
[0:53:48] Of het moet een hele prangende vraag zijn vanuit mijn collega's die nog een snelle vraag willen stellen?
[0:53:51] Nee?
[0:53:52] Dan wil ik toch onze... De heer Van den Burg.
[0:53:55] Ja, toch eentje die ook makkelijk in twee minuten te beantwoorden is hoor, maar niet heus.
[0:54:02] De stoommachines, echt, de wereld zou vergaan toen de stoommachines werden ingevoerd.
[0:54:06] Want hoe konden we nou met die verschrikkelijke apparaten gaan werken?
[0:54:09] En mobiele telefoons, daar gaat echt gewoon nooit iemand wat mee doen.
[0:54:14] Nou, het is allemaal best wel goed gekomen met die stoommachine en die mobiele telefoon.
[0:54:19] En ik kijk nu even specifiek dan, en wanneer zei ik aan...
[0:54:24] Bent u niet iemand die bang is voor de stoommachine... dan wel voor het internet of de mobiele telefoon?
[0:54:30] Dat doe ik uiteraard voor de discussie, even voor de helderheid.
[0:54:33] U heeft meer verstand in uw kleine teen dan ik in mijn hele lichaam.
[0:54:35] Dus het is meer voor de discussie.
[0:54:37] Ik verwijs hier in ieder geval vooral naar het rapport... dat ik met mijn collega's heb geschreven, de opgave AI...
[0:54:42] Daar hebben we AI vergeleken met de stoommachine, met elektriciteit, met de verbrandingsmotor en de computer.
[0:54:49] Wat het antwoord nu ook heel kort zou zijn is, nou ja en nee.
[0:54:53] Kijk, technologieën uiteindelijk...
[0:54:56] hebben we goed weten in te bedden.
[0:54:58] Alleen nooit door ze blind te vertrouwen.
[0:55:01] Al die technologieën hebben we moeten reguleren.
[0:55:03] Die stoommachine heeft een heleboel uitstoot overal.
[0:55:05] Het was vuil, het was vies, mensen gingen er dood aan.
[0:55:08] Hetzelfde geldt voor de verbrandingsmotor.
[0:55:09] Die auto is al sinds 1920, die zijn we nog steeds aan het reguleren.
[0:55:14] Met bumpers, met verkeersregels, met examens, met RDW...
[0:55:20] Dus ja, die technologie is er en die biedt ons veel.
[0:55:22] Maar alleen als we er scherp op zijn en zorgen dat het de regels voldoet, dat het de samenleving geen schade doet.
[0:55:30] Professor van der Hoofd, heel kort.
[0:55:31] Ik voeg daar altijd nog graag aan toe dat AI gaat over denken.
[0:55:35] Het beïnvloedt ons denken en niet alleen ons handelen en de mogelijkheden die we hebben.
[0:55:39] En dat is iets wat heel lastig terug te draaien is.
[0:55:43] Laat ik toch afsluiten met u allen te bedanken.
[0:55:45] Het was een goede discussie, een innoverende discussie.
[0:55:48] Een leuke discussie, denk ik.
[0:55:50] Dank voor uw komst.
[0:55:51] En dan sluit ik hierbij de vergadering.