Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Informatiegestuurd optreden, Multi Domain Operations, en Defensie Strategie Data Science en AI

[0:00:00] Allereerst van harte welkom heten aan onze sprekers en aan mijn collega's, collega Erkens en Carmen van de VVD en NSC.

[0:00:11] Er komen zeer waarschijnlijk wel meer collega's binnen, maar op dit moment is er ook een debat gaande,

[0:00:15] dus we moeten soms op meerdere plekken tegelijk zijn.

[0:00:19] De commissie heeft besloten tot rond de tafel over informatiegestuurd optreden, multidomain operation en defensie strategie,

[0:00:25] Data Science en AI. Jullie zijn gevraagd om in ieder geval een proposition paper te sturen

[0:00:35] en ook een korte presentatie van drie, vier minuten. Maar ik heb gezien dat niet heel

[0:00:41] veel Kamerleden hebben iets meer tijd om ook iets meer de diepte in te gaan. Dus ik wil

[0:00:46] allereerst het woord geven aan de heer Deschenes. Dank u wel. Dank voor de uitnodiging. Ik wilde

[0:00:55] Ik wil me focussen op de term ego en ik heb in het position paper een pleidooi neergeschreven

[0:01:02] om die te vervangen door een aantal generieke werkwoorden, die als je ze achter elkaar schakelt

[0:01:09] een generiek bedrijfsproces, besluitvoeringsproces, privé of zakelijk te gebruiken, representeren.

[0:01:17] En ze zitten in feite ook verweegd in de beleidsvisie van de minister.

[0:01:21] Maar de vraag die ik probeer te beantwoorden en waar ik een idee bij heb, is hoe kunnen we echt als

[0:01:30] krijgsmacht capaciteiten inzetten om te observeren, te begrijpen, te besluiten, te orkestreren en te

[0:01:37] handelen. En daar zijn drie dingen voor nodig en als die drie dingen allemaal aanwezig zijn dan

[0:01:43] hebben we te maken met een leeuw met tanden die mag bijten, die zijn prooi mag verslinden als dat

[0:01:49] nodig is. Als we een van die drie elementen niet aanwezig zien, of als we daar mankementen

[0:01:55] in toestaan of toelaten, dan hebben we te maken met een papieren tijger. En die drie

[0:02:02] elementen die we nodig hebben, dat zijn de drie componenten die ik in het schema uiteen

[0:02:08] heb gezet. Dat zijn de componenten die tesamen militair vermogen definiëren. En dat zijn

[0:02:16] zijn de fysieke component, de conceptuele component en de mentale component.

[0:02:21] En als ik die kort heel snel toelicht, dan zijn de fysieke componenten,

[0:02:27] dat zijn middelen, dat zijn wapensystemen, maar dat zijn ook oefenterreinen

[0:02:32] waar je kunt schieten, waar je kunt manoeuvreren, waar je kunt

[0:02:36] leren waarnemen, observeren.

[0:02:39] Maar daar zitten ook moderne oefenfaciliteiten bij,

[0:02:42] synthetische dorpen, virtuele dorpen of cyberrangers en met die middelen, op die

[0:02:49] middelen, gebruikmakers van die middelen worden mensen geoefend, militairen

[0:02:53] geoefend, want die capaciteiten, die fysieke component die moet geoefend zijn

[0:02:58] anders is die fysieke component niks waard, dus die moeten afhankelijk van het

[0:03:05] ambitieniveau moeten die zo goed mogelijk getraind worden en die fysieke

[0:03:10] Die componenten zetten we doeltreffend en doelgericht in met schaarse middelen, met

[0:03:15] levens, mensenlevens en met dure wapensystemen.

[0:03:19] Hebben we daar een beeld bij, welke visie hebben we gedefinieerd, welke strategie hanteren

[0:03:23] we, welke doctrine passen we toe, maar ook welk besluitvormingsproces hebben we ingeregeld

[0:03:29] om die middelen in te zetten.

[0:03:31] Wie besluit daarover, wie moet daarbij geraadpleegd worden, welke ideeën worden in beschouwing

[0:03:37] genomen en daar hoort ook bij het juridisch raamwerk.

[0:03:40] Wat is de grondslag voor onze middelen?

[0:03:41] Dat geldt naar het volkenrecht toe, maar dat geldt ook als middelen eenmaal zijn ingezet.

[0:03:46] Bijvoorbeeld welke regels van het oorlogsrecht gelden.

[0:03:49] Maar die gelden ook, die juridische raamwerken moeten ook aanwezig zijn voor die oefenfaciliteiten.

[0:03:54] Je hebt niks aan de vliegbasis en F-35's als die vliegtuigen niet mogen opstijgen van de vliegbasis Leeuwarden.

[0:04:01] En ook moeten ze bijvoorbeeld een keer s'nachts op kunnen stijgen als ze nachtoperaties moeten kunnen uitvoeren.

[0:04:06] en ze moeten ergens een keer beoefenen hoe je bommen afvuurt of missaals afschiet.

[0:04:13] Dat juridische raamwerk maakt een deel uit van die conceptuele component.

[0:04:16] En dat moet dus ook in place zijn, anders kun je niet oefenen.

[0:04:19] Laat staan, kun je ze niet inzetten.

[0:04:22] En om die eventuele aanpassingen die nodig zijn...

[0:04:27] om die oefenvoorwaarden mogelijk te maken...

[0:04:30] of die oefenrandvoorwaarden mogelijk te maken, heb je draagvlak nodig.

[0:04:33] Een draagvlak maakt deel uit van de mentale component van militair vermogen.

[0:04:38] Vaak wordt dat bekeken op het individuele niveau.

[0:04:40] De militair moet gehard zijn, moet willen vechten, de eenheid moet gevechtsbereid zijn,

[0:04:46] moet cohesie vertonen en dat soort zaken.

[0:04:48] Maar waar ik hier op inzoom, misschien is dat wel de crux van het hele vraagstuk, is

[0:04:53] zijn we als maatschappij bereid het juridisch raamwerk compleet te maken, zodat die middelen

[0:05:00] ingezet kunnen worden en de middelen ook inzetgereed gemaakt kunnen worden, dus

[0:05:06] dat ze dat ermee geoefend kan worden. Dus dat betekent dat je voor die

[0:05:10] oefenfaciliteiten moet je ontheffingen regelen, vergunningen regelen en we zien

[0:05:15] in de fysieke ruimte dat dat spanning oplevert. In de fysieke ruimte willen we

[0:05:20] schietbanen, vliegvelden, et cetera, maar er zijn ook mensen die in de

[0:05:24] achtertuin wonen. Maar in de virtuele ruimte vind je daar ook botsing van

[0:05:28] belangen. De conclusie van mijn verhaal is dat als je nalaat die juridische randverwaarden

[0:05:35] in te vullen, de ontheffingen, de vergunningen, de uitzonderingen op privacyreglementen in

[0:05:42] te regelen, dan heb je een mankement in de conceptuele poot van militair vermogen en dan

[0:05:47] is dat vermogen niet compleet en heb je dus niet ingeregeld als maatschappij dat die leeuw

[0:05:53] ook tanden heeft en ze kan gebruiken.

[0:05:56] En die keuze ligt voor ons.

[0:05:58] En de consequentie, als we niet zouden kiezen als maatschappij,

[0:06:02] is ook dat die leeuw die tanden niet heeft,

[0:06:04] en dat we dus in feite een papieren tijger optuigen.

[0:06:08] Ook die consequentie moet de maatschappij dan dragen.

[0:06:11] Tot zover.

[0:06:14] Dank u wel.

[0:06:15] Dan wil ik vervolgens het woord geven aan de heer Linderloof.

[0:06:19] Ja, dank u wel.

[0:06:20] Dank u wel ook voor de uitnodiging.

[0:06:22] Mijn benadering is een wat meer technische benadering

[0:06:25] in mijn position paper pel ik hem ook eigenlijk af. Dus ik begin met multidomein optreden. Eigenlijk

[0:06:31] ego is daar essentieel in om dat goed uit te kunnen voeren en als je naar ego gaat kijken

[0:06:36] en dat verder gaat afpellen dan kom je eigenlijk tot dat data science en artificial intelligence

[0:06:42] essentieel zijn in ego om dat tot een goede uitvoering te kunnen brengen. Natuurlijk met

[0:06:47] de benodigde technische infrastructuur et cetera. Uit allerlei academische onderzoek blijkt eigenlijk

[0:06:55] dat als we kijken naar data science en AI, wat zich op dit moment zo hard en exponentieel aan het ontwikkelen is,

[0:07:02] als je dat binnen instanties en ook overheidsinstanties wil implementeren, dat je tegen een aantal dingen aanloopt.

[0:07:07] En toevallig is dat afgelopen vrijdag zelfs nog iemand in Groningen is gepromoveerd op een proefschrift,

[0:07:12] waarbij gekeken werd dan in de UK naar law enforcement agencies die big data gebruiken en toepassen.

[0:07:18] En ook daar was eigenlijk de conclusie dat de techniek, die is er wel klaar voor,

[0:07:21] maar meer de ethische en institutionele barrières die binnen organisaties aanwezig zijn, zorgen ervoor dat die innovatie niet zo snel gaat als dat we dat eigenlijk zouden willen.

[0:07:33] En zoals we dat in de UK zien en binnen law enforcement agencies daar, zo zien we dat ook in defensieorganisaties in het algemeen en ook in Nederland zien we dat.

[0:07:42] En als je daar weer wat verder op inraadt, zie je ook in academische studies dat er, met name als we het over het ethische en ook de juridische raakvlakken hebben,

[0:07:50] Dat we dan hebben over aspecten als privacy, transparency, allemaal dat soort zaken.

[0:07:55] Accountability, hoe regelen we dat in?

[0:07:57] Aan de ene kant zie je een oproep van we zouden minder moeten doen met dit soort algoritmes.

[0:08:02] Er zijn allerlei redenen aan te geven waarom dat eigenlijk helemaal niet mogelijk is.

[0:08:06] Het tweede is meer wet- en regelgeving.

[0:08:09] Ook dat zie je in allerlei domeinen wat ik schets in mijn position paper.

[0:08:12] Waarvan ik denk dat wet- en regelgeving belangrijk is.

[0:08:15] En waarschijnlijk wel als we naar onze defensieorganisatie kijken.

[0:08:18] dat een verruiming van de wet en regering wel nodig zou moeten zijn in lijn met wat Paul schetste.

[0:08:26] Maar daarnaast dat er ook nog meer mogelijkheden zijn, namelijk in die algoritmiek zelf.

[0:08:32] Dus die ethische aspecten kunnen ook worden ingebouwd in algoritmiek.

[0:08:36] Dus ook daar zit een mogelijke oplossingsrichting die we verder zouden moeten verkennen.

[0:08:42] En om dat aan te gaan zien we ook dat de buitenwereld ontwikkelt zich vele malen sneller op dit moment in deze technologie dan dat we dat binnen de overheidsmuren aan het doen zijn.

[0:08:54] Dus wat is daarin noodzakelijk? Participeren in ecosystemen, aanhaken bij de industrie, maar ook participeren in ecosystemen, nationaal, internationaal, militair, civiel en ook met kleinere en grotere kennisinstellingen.

[0:09:07] En als we die participatie verder vorm willen geven, moeten we ook goed nadenken over wat nou die institutionele beperkingen in onze organisatie zijn als het gaat om innovatie.

[0:09:18] En dan kun je dus ook kijken naar dingen die als aanbestedingsregels en dat soort zaken.

[0:09:22] Waarvan ik denk dat het ook goed is om een kritische blik te werpen op hoe we, als we zo'n snelle innovatie in dit domein willen doen, hoe we daar meer ruimte kunnen creëren.

[0:09:31] Dus dat zijn eigenlijk de belangrijkste punten die ik wilde aanraken. Dankjewel.

[0:09:36] Dank u wel. En ten slotte het woord aan mevrouw Cornelisse.

[0:09:40] Ja, dank ook voor deze uitnodiging.

[0:09:43] Ik wil me eigenlijk in mijn bijdrage richten op één kernelement...

[0:09:48] van mijn position paper dat ik helaas wat later rondstuurde.

[0:09:52] Ik neem mij altijd in deze drukke onderwijsperiode voor...

[0:09:56] om niet ja te zeggen tegen extra dingen...

[0:09:58] maar jullie uitnodiging kon ik natuurlijk niet weigeren.

[0:10:02] Mijn kernelement is dat ik denk dat zowel internationale als nationale regelgeving tekort schiet bij

[0:10:10] het reguleren van ego en artificial intelligence in de militaire inzet.

[0:10:16] En dat heeft consequenties voor de rechtmatigheid van de inhoud en de grondslag van die inzet.

[0:10:23] En het heeft ook consequenties voor de mate waarin er achteraf politiek of juridisch gecontroleerd

[0:10:28] kan worden.

[0:10:28] Ik denk dat de oplossing die ik voorstel en die verder doordacht zou moeten worden,

[0:10:35] die ligt niet zozeer in meer nationale regelgeving of nationaal-institutioneel barrières wegnemen,

[0:10:43] maar meer internationale, transnationale regelgeving,

[0:10:46] vooral in Europees rechtelijk verband en een sterkere grip politiek,

[0:10:53] zowel politiek als juridisch, op de rol van private actoren in dit domein.

[0:10:57] Dan gaat het vooral om de rol van private actoren, ook op de traditionele domeinen,

[0:11:04] maar misschien nog wel meer in cyberspace en space.

[0:11:09] Als je alle beleidsdocumenten van defensie, van het mysterie doorneemt,

[0:11:14] maar ook de defensiestrategie, dan zie je dat er heel weinig aandacht wordt besteed

[0:11:21] aan de Europees rechtelijke component en aan de regulering van private actoren

[0:11:28] in dit veld. We zien ze wel heel duidelijk bij elkaar komen in de defensie-industriestrategie

[0:11:37] waarin de Europese Unie en het bedrijfsleven samen worden gebracht omdat er wordt ingezet

[0:11:42] op een robuuste Europese defensiesector waarbij we snel kunnen handelen naar aanleiding van

[0:11:48] bijvoorbeeld geopolitieke veranderingen. Dat is een hele instrumentele benadering die zeker

[0:11:53] geen overbodige luxe is in de huidige geopolitieke verhoudingen, maar hij moet wel gepaard gaan met

[0:12:02] een duidelijke juridische en politieke normering. Waar we het over hebben is steeds nationaal en

[0:12:10] die is dan niet afdoende. In mijn position paper schets ik toch ook nog even het belang van die

[0:12:18] rechtstaatlijkheid die we toch niet alleen als barrière moeten zien, maar juist ook als een

[0:12:24] middel in de cognitieve dimensie, om de hearts en minds van mensen te winnen, om een geloofwaardige

[0:12:32] politiek neer te zetten. Maar ze spelen ook een heel belangrijke rol, juist als de overheid in zee

[0:12:43] gaat met die private actoren, omdat als je die niet afdoende controleert, dan speel je

[0:12:51] met vuur. Dat zien we met Starlink in Oekraïne. Er zijn ook voorbeelden waarin de Nederlandse

[0:12:58] militairen getraind werden door een spin-off van Cambridge Analytica. Dus dat is gevaarlijk

[0:13:04] en daar moeten we ook over nadenken. Het moeilijke is als dit soort processen alleen in het kader

[0:13:11] van een nationale staat plaatsvinden, dan heb je je democratische controle en dan heb je

[0:13:16] die nationale rechter. Op het moment dat je gaat samenwerken op meerdere niveaus, dus

[0:13:22] zowel met private actoren, maar ook met andere landen, dan vermeerderen de rechtsstatelijke

[0:13:27] problemen zich eigenlijk exponentieel. Dus dat wordt niet een klein beetje meer, maar

[0:13:33] dat versterkt elkaar. En dus je ziet bijvoorbeeld in het kader van cyber, dat we het vaak hebben

[0:13:40] over hybride threats, waardoor de lijn tussen civiel en militair lastig te trekken wordt.

[0:13:49] In het militaire domein, en helemaal als het gaat om de MIVD, is de democratische en juridische

[0:13:56] controle gewoon minder dan in het civiele domein. Dus daar zie je een blurring. Maar je ziet

[0:14:00] hem dus ook in de samenwerking met private actoren op het transnationale gebied. En je

[0:14:08] Je ziet hem in de samenwerking tussen bondgenoten.

[0:14:13] Ik denk dat ik een beetje over mijn tijd heen ga, maar daarom ook mijn oproep.

[0:14:17] We moeten daar dus internationaal over nadenken.

[0:14:19] Ik denk dat voor ons, ook als we een zelfstandige positie als Europa binnen die NAVO willen

[0:14:29] behouden, dan kan dat niet anders dan binnen het Europese verband.

[0:14:37] En ja, ik leg dan ook nog uit hoe je ziet dat ook in dat Europese verband is de huidige

[0:14:43] regelgeving gewoon een soort lappendeken.

[0:14:46] Die AVG, die is niet van toepassing als er national security exceptions zijn.

[0:14:51] Dus als we daarnaar verwijzen, bijvoorbeeld in het rapport grondslag gezocht, dat is leuk

[0:14:56] als het gaat om oefenen, als het gaat om de inzet van de krijgsmacht ter ondersteuning

[0:15:02] van civiele taken, maar op het moment dat het meer naar militaire kant gaat, volstaat

[0:15:08] die niet. Dus daar hoop ik toe op, ja.

[0:15:14] Dank u wel. Dan ga ik nu naar mijn collega's toe. Dan stellen we allemaal één vraag en

[0:15:20] ook even duidelijk aan wie de vraag wordt gesteld en daarna aan de G en jullie de beantwoording.

[0:15:26] Allereerst collega Erkens.

[0:15:28] Dank voorzitter. En ook aan de sprekers voor hun inbreng.

[0:15:33] Ik heb één vraag, maar ik wil misschien een korte reactie van wie erop wil reageren.

[0:15:37] Het hoeft niet lang te zijn, maar ik was vorige week in de VS op bezoek bij de Defensie Industrie.

[0:15:42] En wat zij daar aangaven op het gebied van autonome wapensystemen, gaan ze door als

[0:15:46] wij innoveren, maar in Europa reguleren jullie alleen maar. En dat zorgt dat jullie op achterstand gaan.

[0:15:51] Zou u daar een reflectie op kunnen delen hoe jullie daar in kijken?

[0:15:55] Collega Karawan.

[0:15:58] Dank u wel, voorzitter.

[0:15:59] Mijn vraag is aan de heer Duchesne.

[0:16:02] U gaf aan, mooi als wij alle middelen en de juiste mensen hebben binnen de defensieorganisatie,

[0:16:09] maar als de samenleving en de maatschappij het ook niet omarmt door ruimte te geven aan defensie,

[0:16:14] met vergunningen en dergelijke, dan komen we niet.

[0:16:18] Hoe kijkt u daar tegenaan?

[0:16:19] Hoe zouden we dat wel kunnen?

[0:16:21] Hoe kunnen we beter de samenleving meenemen,

[0:16:23] dat we die draagvlak voor defensie gaan creëren.

[0:16:28] Dank u wel. Collega Tijman.

[0:16:30] Ik heb een hele lijst vol met vragen, maar daar gaan we niet allemaal toe komen.

[0:16:35] Wat ik wil delen, en ik ben ook wel benieuwd...

[0:16:38] We zijn met z'n vieren, met z'n drieën, een reflectie van z'n alle drie.

[0:16:42] Wat we zien met de nieuwe technologie door de jaren heen,

[0:16:45] misschien wel door de honderden jaren heen,

[0:16:47] is dat we elke keer strepen in de zand trekken, rode lijnen trekken.

[0:16:50] We hebben vaak erachter gekomen dat we die rode lijn overschreden zijn en dat het niet gelukt is dat we een volgende rode lijn trekken.

[0:16:59] Dus mijn vraag is even, waar staan we op basis van de rode lijnen trekken en hoeveel rode lijnen denken we nog tegen te gaan komen?

[0:17:06] En mijn vraag is ook, hoe kunnen we niet aan de voorkant komen?

[0:17:09] Dus in plaats van zeggen, we moeten het allemaal reguleren, maar een hoop zaken die gaan ontzettend snel.

[0:17:14] En hoe kunnen we aan de voorkant komen dat we niet met 308-verstand straks onze militairen

[0:17:21] ergens in een inzetgebied voor de systemen moeten zetten.

[0:17:27] Dank jullie wel.

[0:17:28] Niet allemaal precies aan één persoon gericht, dus ik heb al helemaal geen autoriteit hier.

[0:17:33] Maar gezien we toch wat meer tijd hebben, is het misschien handig als jullie gewoon

[0:17:37] om zijn beurt een antwoord willen geven op wat vragen die wat algemeen zijn.

[0:17:41] En ik zou er nog één vraag aan toe willen voegen.

[0:17:45] Ook aan alle drie?

[0:17:46] Nee, heel specifiek aan de heer De Chenne.

[0:17:49] Wij hebben hier natuurlijk een akkervietje gehad met het LIMSI.

[0:17:53] Ook hele debatten gehad hier in de Kamer.

[0:17:56] In de Kamer is dan ook een motie ingediend en aangenomen.

[0:17:59] Die zei van, kom nu eens met duidelijke kaders, met name voor militair,

[0:18:03] om te oefenen in de digitale wereld.

[0:18:08] Zou u misschien iets kunnen vertellen of er iets is veranderd?

[0:18:11] wat er is veranderd en of er nog iets moet worden gedaan hier in onze Kamer om in ieder geval te zorgen

[0:18:16] dat militairen inderdaad meer duidelijkheid en meer ruimte hebben om daadwerkelijk in het digitale

[0:18:22] domein te kunnen oefenen. Een hele brede vraag, realiseer ik me ook. Ik geef meteen het woord aan

[0:18:28] de heer Doucene. Dank u wel. Het interessante is als Europa gaat reguleren, dan volgen bedrijven.

[0:18:41] Dat zie je in de techniek, maar dat zie je met het Digital Service Act en dat soort zaken.

[0:18:46] Maar dat geldt ook bijvoorbeeld voor standaarden, kwaliteitsstandaarden.

[0:18:49] En dan gaan bedrijven zich daar aan conformeren.

[0:18:51] En de vraag is of dat slecht is.

[0:18:53] Maar dat is een ander vakgebied en ik heb ooit wereldwaterbouwkunde gestudeerd.

[0:18:57] Dus van dat vraagstuk blijf ik ver weg.

[0:19:01] Maar ik heb ook rechten gestudeerd en een van de elementen die ik onze studenten en onze collega's in opleidingen

[0:19:09] Voorhoud is legitimiteit, is een beginsel van de rechtsstaat.

[0:19:13] De krijgsmacht is een instrument van de rechtsstaat.

[0:19:16] En de krijgsmacht heeft als een van de elementen in hoe ze optreedt,

[0:19:20] in de doctrine beschreven dat legitimiteit een van de grondbeginselen van militair optreden is.

[0:19:27] En dat is een kostbaar goed.

[0:19:30] En dat kun je makkelijk verliezen.

[0:19:32] En het kost heel veel tijd om het terug te winnen.

[0:19:33] Dus de krijgsmachten, Westerse krijgsmachten,

[0:19:37] de NAVO-krijgsmachten, onze bondgenoten,

[0:19:38] hebben er belang bij om die legitimiteit hoog te houden.

[0:19:43] En dat zit me dus ook in hoe je dan producten inregelt

[0:19:48] die je afneemt van de industrie.

[0:19:50] Dus ik zou ook zeggen dat die regelgeving heeft een nut

[0:19:54] in de richting van, als wij weten hoe die producten met welke normen

[0:20:01] die geproduceerd worden, geleverd worden, geserviced worden.

[0:20:04] En dan kunnen wij iets zeggen over de legitimiteit als we die middelen gebruiken.

[0:20:08] Dus dat zou mijn idee daarbij zijn.

[0:20:12] Maak ik de andere vraag meteen af?

[0:20:15] Oké.

[0:20:17] Draagvlak vroeg u naar.

[0:20:20] Ik had in de kerst een borrel bij ons in het dorp.

[0:20:25] En toen kwamen we op moeten we Oekraïne steunen.

[0:20:30] Je kunt er van alles bij voorstellen.

[0:20:33] En tegenover mij stond een kritische vraagsteller, een kennis van mij uit het dorp.

[0:20:39] En toen heb ik uitgelegd dat Oekraïne steunen waarschijnlijk de goedkoopste, dat moet de Nederlander aanspreken,

[0:20:45] goedkoopste methode was om onze veiligheid te garanderen.

[0:20:51] En ik heb hem voorgehouden, als je dat niet doet, en je hebt vier zonen die variëren van 12 tot 18 jaar, dacht ik ongeveer,

[0:20:59] Dan zitten zij wellicht straks, waar ik begonnen ben in mijn carrière namelijk in West-Duitsland

[0:21:05] tegen de inner-Duitse grenzen nog aan, zitten zij waarschijnlijk tegen de grens van het

[0:21:10] NAVO-gebied en worden ze opgeroepen voor een dienstplicht.

[0:21:12] En de vraag is, beste dorpsgenoot, welke prijs wil jij betalen?

[0:21:17] Ik denk als we dat uitleggen, als we uitleggen wat de consequenties zijn van het niet aanpassen

[0:21:21] van je conceptuele component van juridische kaders, en met volle respect voor mijn collega's

[0:21:27] betoog, dan moet je ook aangeven welke prijs we betalen als we dat niet doen.

[0:21:33] En dan moet je eigenlijk, denk ik, als laatste de vraag stellen.

[0:21:35] Bent u bereid die prijs te betalen?

[0:21:40] En dan wordt het heel persoonlijk.

[0:21:41] En dan ben ik wel benieuwd wat dan wat dan de goegemeente ervan maakt.

[0:21:49] Meneer Tuinman vroeg hoe je aan de voorkant komt.

[0:21:53] Nou, los van het feit dat hij daar zelf waarschijnlijk ook hele sublieme ideeën

[0:21:56] over heeft. Daar hebben we ook al over gespart. Ik weet niet of je aan de voorkant kunt komen,

[0:22:05] maar ik denk wel dat je moet eisen dat als je een krijgsmacht hebt die voor een taken

[0:22:15] is aangewezen, dat je de garantie moet eisen van die krijgsmacht dat ze die taken ook

[0:22:20] kunnen volbrengen. Hoe kom je dan aan de voorkant? Hoe garandeer je eigenlijk dat je die slag

[0:22:27] dat je die garantie af kan geven door zo goed mogelijk te oefenen

[0:22:31] in verschillende gradaties en dan kom ik ook op uw vraag.

[0:22:35] Je zult beginnen met eenvoudig oefenen en dat kan op de kaart zijn

[0:22:40] dat je een wargame doet op een kaart met alleen een staf met een paar mensen

[0:22:46] maar uiteindelijk moet je ook het veld in en het veld moet je dan ook een keer vervangen

[0:22:50] door een ander terrein wat realistisch is in relatie tot de taak die is opgedragen

[0:22:55] En wellicht dat je dan echt ook real life moet gaan oefenen met echte wapens en met echte mogelijkheden om vuur uit te brengen met alle risico's van dien, mind you.

[0:23:05] Maar dat is, denk ik, een keuze die we met z'n allen moeten maken.

[0:23:09] Voor welke taken eisen wij dat de krijgsmacht uit moet kunnen voeren?

[0:23:16] En hoe faciliteren we die krijgsmacht zodat ze dat waar kan maken?

[0:23:21] En dat helpt ons aan de voorkant te komen.

[0:23:26] Ik ga ervan uit dat Tim Swijs straks iets zegt over afschrikking en dat soort constructies,

[0:23:32] hoe die ook bijdragen aan de voorkant van een probleem proberen te komen en te blijven.

[0:23:42] Ik ben dan niet heel precies ingegaan op de Limci-vraag, maar ook daar weet ik dat er

[0:23:50] gekeken wordt naar oefenfaciliteiten, er wordt die dat oefenen in die virtuele dimensie en

[0:23:59] in de cognitieve dimensie beter moeten ondersteunen.

[0:24:03] Ik weet dat er een fenomeen bestaat als Cyber Rangers, in ieder geval in het buitenland

[0:24:07] en volgens mij gebruiken wij die bijvoorbeeld ook en dan is het de vraag heb je dan een

[0:24:13] virtuele dataset die zo realistisch mogelijk is dat je dat zo goed mogelijk kan oefenen

[0:24:16] in lijn met het antwoord aan de heer Tuinman.

[0:24:20] En er worden op dit moment allerlei lijnen doorlopen.

[0:24:26] Bijvoorbeeld, we hebben een vraagstuk, dat wordt dan een wasstraat genoemd.

[0:24:29] We hebben een vraagstuk, dat komt groen of rood of geel uit de wasstraat.

[0:24:34] Groen is dat dit eigenlijk helemaal geen probleem is, het zit zo in elkaar.

[0:24:37] Dus dat kunnen we gewoon doen.

[0:24:38] Rood is dat dit echt een probleem is, we hebben geen fix.

[0:24:41] Dus hier lopen we tegen zo'n barrière aan.

[0:24:44] Dan hebben we de politieke keuze voor liggen, gaan we die barrières opheffen of niet.

[0:24:51] Oranje is dan, daar moeten we nog even goed over nadenken, wellicht dat nader onderzoek

[0:24:58] hem groen maakt of hem rood kwalificeert.

[0:25:02] Er zijn nog meer voorbeelden die op dit moment doorlopen worden.

[0:25:09] Maar er zitten daarachter in de zaal mensen die dat veel beter weten dan ik.

[0:25:12] Ik haal me eventjes hier bij dit stuk. Dank.

[0:25:17] Misschien dat die mensen heel subtiel kunnen appen.

[0:25:23] Dan geef ik het woord aan Herin de Laf.

[0:25:25] Ja, dank je wel. Ik denk eerst een algemene opmerking die geldt voor het antwoord op al van dit soort vragen.

[0:25:34] En dat is als het gaat over het gebruik van AI en data science in het militaire domein,

[0:25:38] hebben we het vaak over het verantwoorden gebruikt daarvan.

[0:25:40] En één vraag die je daarbij altijd zelf moet stellen is,

[0:25:44] hoe verantwoord is het om dit soort technieken die je exponentieel aan het ontwikkelen zijn,

[0:25:50] om die niet toe te passen?

[0:25:51] Weten we dat we dit niet in Splendid Isolation aan het doen zijn,

[0:25:54] maar dat we natuurlijk altijd ergens op een slagveld een tegenstander tegen het lijf lopen,

[0:25:58] die waarschijnlijk andere kaders en raamwerken voor zich heeft,

[0:26:02] en dus waarschijnlijk op een andere manier dit heeft ingericht.

[0:26:05] Dus die vraag moeten we ons altijd in het achterhoofd meenemen

[0:26:08] als we dit soort afwegingen aan het maken zijn. Het eerste punt was innoveren versus reguleren

[0:26:14] met betrekking tot autonome wapensystemen. Ik denk dat er, als je erover nadenkt, technisch,

[0:26:21] als je naar de mogelijkheden kijkt, is er technisch heel veel mogelijk. Maar juridisch

[0:26:25] zijn er dingen die wel of niet wenselijk zijn. Redenerend vanuit de techniek en mijn academische

[0:26:32] kennis daarover, denk ik dat het wel eens nuttig zou kunnen zijn om toch wat meer ruimte te

[0:26:36] proberen te zoeken in het gebruik van dit soort systemen. En Nederland is ook echt een voortrekker

[0:26:41] als het gaat om hoe we dit op een verantwoordelijke manier doen door de participatie in de Green

[0:26:45] Aim afgelopen jaren, de Responsible AI in the Military Domain Summit en die dit jaar

[0:26:50] in Zuid-Korea georganiseerd gaat worden waar we ook bij betrokken zijn. Maar een van de

[0:26:55] vragen die we moeten zien te beantwoorden hierin is hoe gaan we die mens en machine samenwerking

[0:27:00] zo goed mogelijk inzetten. Want nogmaals, vaak wat ik mis in deze discussie en dat

[0:27:05] en dat relateert ook een beetje aan de tweede vraag van hoe kijkt de samenleving hier tegenaan,

[0:27:10] is dat het altijd een afweging is tussen menselijke besluitvorming, machinebesluitvorming en de sterktes en zwaktes die daarin plaatsvinden.

[0:27:18] Er is heel veel onderzoek wat dingen zegt over hoe mensen besluitvorming doen en de sterktes en de zwaktes daarin

[0:27:24] en ook hoe machines dat doen en specifiek als het gaat over de machine learning pipeline waar allerlei biases in zitten.

[0:27:30] Maar vaak, en dan ben ik dus meteen bezig met het beantwoorden van de tweede vraag,

[0:27:36] vaak wordt daarbij in de publieke discussie het een en ander op een hoop gegooid.

[0:27:40] En ik wil daarin dus ook pleiten voor meer nuance in die discussie.

[0:27:44] Want als het gaat over dingen die algoritmes verkeerd zouden kunnen doen,

[0:27:47] hebben we het vaak over machine learning algoritmes,

[0:27:49] wat echt maar een kleine subset is van een veel grotere bak van algoritmes die er zijn,

[0:27:54] die helemaal niet van dat soort ethische tekortkomingen met zich meebrengen.

[0:27:59] En dit goed uitleggen in het publieke debat is denk ik heel belangrijk...

[0:28:03] om ook die samenleving meer mee te krijgen.

[0:28:07] Dus dat is ook een punt wat ik echt wil meegeven.

[0:28:10] Zoek de nuance erin en leg goed uit wat je nou wel en niet aan het doen bent.

[0:28:13] En dat het dus ook best wel zo kan zijn...

[0:28:16] dat sommige algoritmes helemaal niet zoveel kwaad in de zin hebben...

[0:28:19] zoals ze wordt toegekend.

[0:28:21] Sterker nog, dat er vaak ook oplossingen in die algoritmes te vinden zijn.

[0:28:24] Dat moet ik ook in mijn position paper schrijven.

[0:28:26] ethische aspecten als privacy en fairness.

[0:28:29] Tegenwoordig is de stand van academisch onderzoek op dat gebied best wel ver.

[0:28:33] Dat we dit soort dingen gewoon kunnen implementeren in algoritmes.

[0:28:36] Waarbij nog steeds verschillende mogelijke implementaties van bijvoorbeeld fairness bestaan.

[0:28:40] En daarover moet je een discussie met elkaar hebben.

[0:28:42] Wat vinden we nou wat fairness is?

[0:28:44] In welke omstandigheid? In welke context?

[0:28:46] Onder welk risiconiveau?

[0:28:47] En dat is weer die nuance.

[0:28:49] En die nuance inzien, maar ook communiceren.

[0:28:53] Ik denk dat dat echt extreem belangrijk is.

[0:28:54] Dat je daarin ook de samenleving meer mee kan krijgen.

[0:29:01] Even kijken, de derde vraag.

[0:29:02] Waar staan we op basis van de rode lijnen?

[0:29:05] De vraag van meneer Tuinman.

[0:29:08] Ook daarin denk ik dus dat het opzoeken van de nuance en het detail dat dat helpt.

[0:29:14] En dat kunnen we als Nederland nooit alleen.

[0:29:17] Dus we zullen moeten participeren in ecosystemen, nationaal en internationaal.

[0:29:21] Dat doen we natuurlijk al met de NAVO, met de EU.

[0:29:23] Maar ook in ecosystemen met kleinere start-ups en scale-ups en midden- en kleinbedrijf.

[0:29:30] En met allerlei verschillende kennisinstellingen.

[0:29:32] Ik denk dat daar heel veel waarde te halen valt.

[0:29:34] Dat er heel veel kennis al is.

[0:29:36] Maar dan kom ik nogmaals terug op dat andere punt.

[0:29:39] Dat er juridisch wel meer ruimte zou mogen ontstaan om gegeven bepaalde context en bepaalde situaties dingen te mogen doen.

[0:29:46] En dat raakt ook meteen aan het oefenen.

[0:29:48] Het oefenen in digitale omgevingen.

[0:29:50] Het bouwen van digital twins, zoals dat heet.

[0:29:53] wat tegenwoordig gewoon een good practice is in de academische wereld.

[0:29:57] Dat mogen doen en daar meer ruimte in krijgen, zorgt ervoor dat je je gereedstelling veel beter op orde krijgt.

[0:30:03] En daar is echt winst te behalen, denk ik.

[0:30:07] Als laatste het over Limci. Iedereen heeft het rapport van Brouwer gelezen.

[0:30:12] Ik kan dat onderschrijven en dat raakt ook aan de eerdere punten die ik net al genoemd heb.

[0:30:18] Stinktelijk het eigen bij dat.

[0:30:21] Dank u wel. De keuze tussen oorlog en vrede is niet altijd een keuze aan onszelf, zei Alexander Hamilton aan uw eerste opmerking denkend.

[0:30:29] Mevrouw Cornelissen.

[0:30:31] Ja, inderdaad. De keuze tussen innoveren en reguleren.

[0:30:37] Ja, wij leven inderdaad in een wereld waarin we soms regulering nodig hebben om te mogen innoveren.

[0:30:44] Dus als het gaat om...

[0:30:49] Defensie geeft zelf aan bij het verder ontwikkelen van IGO en Artificial Intelligence en ook MDO.

[0:30:56] In verre uit de meeste gevallen zullen we dat in bondgenootschap moeten doen.

[0:31:01] En daarvoor moeten we zorgen dat nationaal beleid aansluit op bondgenootschappelijke doctrines en concepten.

[0:31:09] Waarbij interoperabiliteit heel belangrijk is.

[0:31:11] Nou, als je daar geen juridisch kader voor hebt, gebeurt het niet.

[0:31:15] Hoe maak je zo'n juridisch kader?

[0:31:16] Daar kan je inderdaad als nationaal parlement heel ver in komen,

[0:31:20] maar je zal dus ook met die bondgenoten moeten spreken.

[0:31:25] Nou, we zien soms problemen,

[0:31:27] Europees-rechtelijk, als het gaat om het delen van informatie,

[0:31:30] bijvoorbeeld bij terrorismebestrijding met Amerika.

[0:31:34] Dan loop je dus tegen een grens.

[0:31:37] Je zou kunnen zeggen rode lijn.

[0:31:39] Daar moet je dus zowel een politiek debat over hebben,

[0:31:43] ook een maatschappelijk debat en uiteindelijk kom je dan tot regelgeving.

[0:31:48] Dus mijn argument is ook niet zozeer dat regelgeving

[0:31:51] de inzet van de krijgsmacht op deze gebieden tegen moet gaan.

[0:31:57] Regelgeving moet die grondslag bieden en daar is niet maar één uitkomst mogelijk.

[0:32:03] Het gaat er wel om dat je het politieke debat daarover hebt

[0:32:06] En als je het politieke debat wil beperken tot constitutioneel-rechtelijk,

[0:32:12] mag het volgens de grondwet, mag het volgens de UAVG, dat is onvoldoende.

[0:32:19] Dus dat is de kern van mijn element.

[0:32:23] En dat geldt natuurlijk ook bij het reguleren van private actoren.

[0:32:27] Als je dat niet doet, dan kunnen zij inderdaad heel veel innoveren,

[0:32:31] maar verlies je de grip.

[0:32:34] Dan verlies je ook de grip als nationale krijgsmacht.

[0:32:38] Of kan het heel goed gebeuren dat je die grip verliest.

[0:32:42] Je ziet het bij de privatisering van Space.

[0:32:47] Waarin we afhankelijk zijn van private actoren om die oorlogsvoering te doen.

[0:32:54] Het is natuurlijk niet zo makkelijk om deze vraagstukken op te lossen.

[0:32:59] Dus het is ook niet zo van ja we hebben die regelgeving morgen.

[0:33:02] Nederland moet doen is juist met zijn bondgenoten inzetten op die regelgeving.

[0:33:06] Dat gebeurt natuurlijk al en ik denk dat de Europese context daar een heel goed gremium voor biedt.

[0:33:13] Maar dat wil niet zeggen dat dat morgen gedaan is natuurlijk.

[0:33:18] Maar met een zuiver nationaal debat hierover waar je toch wel vaak op stoot.

[0:33:23] De problemen worden te veel in silo's gezien.

[0:33:28] Dus er wordt niet een soort transnationale kijk waarin je ziet,

[0:33:32] daar moeten we aandacht aan besteden.

[0:33:36] Ook met onze bandgenoten.

[0:33:39] Dus ik weet niet of dat uw vraag antwoordt.

[0:33:44] Daar gaan we achter komen.

[0:33:46] Voor een tweede ronde, ik wil dan gelijk meteen alle vragen doen.

[0:33:50] De collega Noordkamp is aangeschoven van de PvdA.

[0:33:53] Ik begin bij collega Erkens.

[0:33:54] Ja, dan misschien een korte vraag ook nog waar u op dit moment juridisch

[0:33:59] nog de grootste lankunis ook ziet om Defensie verder te brengen.

[0:34:05] Collega Karreman. Dank u wel, voorzitter.

[0:34:08] Voorzitter, het inzet van AI, technologie en noem maar op.

[0:34:13] Ik hoor heel vaak, ik hoor nu heel veel van ja, wet en regelgeving.

[0:34:18] In hoeverre kan het? Ik bedoel ja, soms heb je dan waarschijnlijk tegenstanders

[0:34:22] te maken die wat minder van de regeltjes zijn en noem maar op.

[0:34:28] Ik snap dat we willen kaderen, dat we duidelijke wetten en regels willen hebben, ook op dat terrein.

[0:34:33] Kunt u aangeven hoe wij daarmee omgaan? Zijn wij daarin te behoudend?

[0:34:38] Of mag het wat meer ruimte geven om toch gebruik te maken van technologie?

[0:34:41] Want uiteindelijk, zonder gebruik van technologie, denk ik dat je gewoon op een 1-0 achterstand komt te staan, als het niet meer is.

[0:34:48] Collega Tijman.

[0:34:49] Ja, voorzitter, ik was er ook bij.

[0:34:51] Kijk, iedereen schreeuwt hier, het moet allemaal sneller.

[0:34:53] Net van de week ook nog een werkbezoek gebracht,

[0:34:55] en NXP en ASML,

[0:34:58] en dan hebben ze over chips,

[0:34:59] ja, daar duizelde het mij van.

[0:35:01] En dat niet in chips in de aantallen voor honderden,

[0:35:03] maar over miljoenen en miljarden.

[0:35:06] Hetzelfde gaat over drones,

[0:35:07] en hoe je die kunt aansturen met alle verschillende types.

[0:35:09] We hebben niet over duizend, we hebben niet over honderdduizend,

[0:35:11] niet een miljoen, maar we hebben over tientallen miljoenen.

[0:35:14] Dus ik was er wel mee.

[0:35:15] Ik ben echt op zoek naar hoe we ervoor kunnen zorgen dat we gewoon wel maximaal versnellen,

[0:35:23] zodat onze mannen, vrouwen en misschien ook wel machines die voor onze vrijheid en ook voor onze rechtsstaatelijkheid

[0:35:30] en ook waar we alles van staan voor waarde nomen, uiteindelijk kunnen verdedigen.

[0:35:34] Dus welke stap moeten we nu echt gaan zetten, zodat we precies dat gaan doen wat we hier dagelijks mee bekogeld worden?

[0:35:42] Collega Noordkamp.

[0:35:43] Dank.

[0:35:44] Van mij komt een redelijk basale vraag over AI,

[0:35:46] want ik ben daar niet heel erg in thuis,

[0:35:48] maar mijn vraag is in hoeverre AI,

[0:35:51] misschien is het ook al een hele verkeerde aanname,

[0:35:52] maar altijd objectief kan handelen?

[0:35:55] Of is het juist altijd subjectief?

[0:35:58] Zou het bijvoorbeeld ook misschien ons kunnen helpen

[0:36:00] in de strijd tegen desinformatie en nepnieuws?

[0:36:02] Zou daar een AI-filter tussen zitten?

[0:36:04] Of is het juist niet mogelijk,

[0:36:07] omdat er altijd subjectiviteit in AI zit?

[0:36:09] Dus graag daar iets meer informatie over.

[0:36:21] Het grootste gevaar is de versnipperdheid van het juridische landschap en de labbedeken.

[0:36:29] We moeten zorgen dat we een geïntegreerde kijk ook in dat juridische kader hebben.

[0:36:36] Daarbij moet je in aanmerking nemen dat er internationaal in bondgenootschap wordt samengewerkt.

[0:36:43] en dat er samenwerking bestaat tussen publieke en private actoren.

[0:36:47] Dat doet het recht nu onvoldoende.

[0:36:50] Wat daar de uitkomst van is, is inderdaad de uitkomst van een politiek proces.

[0:36:55] Dus dat is wat...

[0:36:59] Ja, mijn persoonlijke ethische kijk daarop is eigenlijk niet zo relevant.

[0:37:05] Het gaat er meer om hoe willen wij als maatschappij hier...

[0:37:09] politieke controle ophouden en een juridische check opzetten.

[0:37:15] Als het gaat over, ik vind het een heel moeilijke vraag,

[0:37:22] als het gaat over die ontzettend snelle ontwikkelingen die we zien,

[0:37:28] waarvan we ook weten dat er landen zijn

[0:37:32] die zich wat minder aan de ethische principes houden die wij wel aanhangen.

[0:37:37] En hoe gaan we daarmee om?

[0:37:39] Ik heb daar veel over nagedacht de laatste maanden,

[0:37:43] ook toen ik me hiermee bezig aan het houden was.

[0:37:46] Ik heb daar eigenlijk geen antwoord op, zeg ik eerlijk.

[0:37:48] Ik denk ook dat dat een antwoord moet...

[0:37:50] Dat is een discussie die we moeten hebben.

[0:37:55] Nou, ga ik toch even de term van de heer Tuijman gebruiken.

[0:37:59] Er zijn natuurlijk altijd bepaalde rode lijnen als het gaat om deze vraag.

[0:38:03] Dus we zien het bij het gebruik van chemische wapens.

[0:38:06] daar ook als een tegenstander dat doet, dan zouden wij niet zeggen dan doen wij dat ook.

[0:38:12] Maar als het gaat om hybride oorlogsvoering, dus het gebruik van desinformatie, wanneer

[0:38:16] is iets desinformatie en wanneer is iets een poging om het narratief te beïnvloeden om

[0:38:21] juist de feiten naar voren te brengen. Ik heb daar geen antwoord op. Ik zie wel dat

[0:38:27] we het gesprek daar te weinig over voeren en misschien toch een wat hoopvolle benadering

[0:38:35] Er zijn meerdere vormen van oorlogvoering geweest, methods en means,

[0:38:40] die door internationale regulering niet meer acceptabel zijn.

[0:38:45] Ik noem chemische wapens, ik noem biologische wapens.

[0:38:49] Dus het is niet uitgesloten dat je ook in internationaal verband kan komen

[0:38:54] tot in ieder geval een dialoog hierover, wat natuurlijk nu ook gebeurt.

[0:39:01] En ja, dat staat soms inderdaad op gespannen voet

[0:39:03] met die versnelling van de technologie, dat klopt.

[0:39:09] Ja, ik denk dat ik alle vragen zo wel geantwoord heb.

[0:39:15] Dank u wel.

[0:39:16] De heer Lindenloof.

[0:39:18] Dank u wel.

[0:39:21] We beginnen bij het laatste.

[0:39:23] De vraag van de heer Nogdkamp over AI en is dat subjectief of objectief?

[0:39:29] Kijk, er bestaat niet zoiets als de AI.

[0:39:32] Ik pleitte net ook al voor nuance in het debat, in het algemene publieke debat wordt er heel

[0:39:37] erg gesproken over de AI, alsof er ergens hier een computer in de ruimte staat die alles

[0:39:42] aan het besturen is.

[0:39:42] Dat is niet zo.

[0:39:43] AI zijn modellen, allerlei verschillende soorten modellen voor verschillende soorten context

[0:39:49] die door verschillende soorten mensen in allerlei verschillende soorten omstandigheden worden

[0:39:53] ingeregeld.

[0:39:55] En een bekend statisticus zei ooit wel eens, George Box, die zei alle modellen zijn fout

[0:39:59] en sommige zijn nuttig.

[0:40:01] All models are wrong and some are useful. En zo is het.

[0:40:03] Alle modellen zijn fout, maar ook de mentale modellen die wij in onze hoofden creëren

[0:40:08] met onze cognitieve bias en onze grijze computer die tussen onze oren zit.

[0:40:13] Dus dat is gewoon een uitgangspunt dat we moeten nemen.

[0:40:16] En dus is een AI-model objectief of subjectief?

[0:40:19] Het is een model dat gegeven bepaalde omstandigheden en gegeven bepaalde aannames

[0:40:24] kan helpen om grote hoeveelheden data te analyseren,

[0:40:27] om daar op een heel goed gemete manier besluitvorming te helpen ondersteunen.

[0:40:33] Die goed gemete manier...

[0:40:35] Het zit allemaal in wetenschappelijke metrieken, zal ik u niet lastigvallen,

[0:40:38] maar er wordt in ieder geval heel diep over nagedacht.

[0:40:41] En het mooie van die modellen is dat heel veel dingen daarin expliciet zijn.

[0:40:46] Ik noemde al eerder de bias die in een mens zit.

[0:40:49] Die kunnen we enigszins expliciet maken,

[0:40:51] maar we kunnen niet een schedel openzagen en kijken in die hersen

[0:40:53] naar waar het misgaat en dat corrigeren.

[0:40:55] Terwijl het bij dit soort modellen wel kan.

[0:40:58] Uiteraard, er zijn heel veel historische voorbeelden

[0:41:00] over hoe AI-modellen discrimineren en allerlei verschrikkelijke dingen doen.

[0:41:05] Maar dat kunnen we constateren, dat kunnen we expliciet maken

[0:41:07] en dat kunnen we mitigeren.

[0:41:09] En dat is het voordeel van dit soort systemen.

[0:41:11] En dan kom ik ook terug op wat ik in het begin zei.

[0:41:14] We kunnen nooit in Splendid Isolation na zo'n systeem of na zo'n machine kijken.

[0:41:18] Altijd vergelijkend met hoe de mens de besluitvorming doet.

[0:41:22] Hoe doet de machine het?

[0:41:23] Wat zijn de voordelen en wat zijn de nadelen?

[0:41:25] En we willen uiteindelijk, dat is de ideale wereld, komen tot mens-machine-teaming die zo goed optimaal mogelijk is ingegeeld.

[0:41:31] Waarmee je tot betere besluitvorming komt dan als je het of alleen mens of alleen machine laat doen.

[0:41:37] Ik zat even op de laatste vraag.

[0:41:40] De andere vraag raakte heel erg aan de juridische discussie van wat kunnen we nou doen?

[0:41:46] Wat is er nou mogelijk? Schoenmaker, blijf bij je leest. Ik ben geen jurist.

[0:41:50] Maar ik zie wel echt, ook als ik naar de defensieorganisatie kijk,

[0:41:53] Maar ook als ik naar de technische mogelijkheden kijk,

[0:41:56] dat we meer ruimte zouden moeten creëren.

[0:42:01] Meer juridische ruimte zouden moeten willen creëren.

[0:42:03] Misschien moeten we toe naar een soort krijgsmachtwet,

[0:42:05] dat voor bepaalde omstandigheden, in bepaalde contexten,

[0:42:09] dat we echt wel meer met data science en AI moeten trainen.

[0:42:13] Moeten kunnen leren wat er allemaal mogelijk is.

[0:42:17] En ook dat we wat willen inzetten in allerlei verschillende omstandigheden.

[0:42:22] En om terug te komen op de vraag die mijn voorganger stelde, van we zien dat de vijand onze omgeving is hier misschien wel veel meer mee bezig.

[0:42:32] En hoe gaan we daarmee om? Hoe beantwoord je die vraag?

[0:42:35] Nou, ik denk dat een antwoord daar voor een deel in ieder geval op is.

[0:42:38] Hoe gaan we daarmee om? In ieder geval niet door onszelf in de meest extreme vorm te beperken in wat wij kunnen en mogen.

[0:42:47] Dus we moeten onszelf niet met de handen en de voeten op de rug binden om te doen wat we aan het doen zijn.

[0:42:56] Laten we in ieder geval ervoor zorgen dat we geoefend zijn, dat we klaar zijn,

[0:43:00] dat we kennis hebben van al dit soort systemen en mogelijkheden,

[0:43:03] dat we daarmee hebben kunnen trainen, dat we data hebben kunnen verzamelen om die algoritmes te trainen,

[0:43:08] dat we daadwerkelijk ook daarmee aan de slag kunnen.

[0:43:10] Want, en dat raakt dan ook aan het andere punt over desinformatie,

[0:43:13] Ja, desinformatie en misinformatie, dat is natuurlijk informatiecampagnes.

[0:43:18] Het gebeurt de hele dag door op social media, op allerlei platforms.

[0:43:23] Niet-Statelijke en ander-Statelijke actoren, onze vijanden zijn hier zeer behebt en actief in.

[0:43:28] En dit is al lang niet meer van mens tot mens.

[0:43:31] Dit zijn zeer actieve AI-gedreven campagnes.

[0:43:34] Er is op dit moment een AI-wapenwetloop, is gewoon aan de gang.

[0:43:38] In dit informatie- en het cyberdomein.

[0:43:40] En daarin moeten wij ons niet beperken door te zeggen van,

[0:43:44] eigenlijk kun je met AI misschien wel fake news detecteren,

[0:43:46] of kunnen we algoritmes trainen zodanig dat we hier ons goed tegen kunnen wapenen.

[0:43:51] Maar ja, dat kan niet vanwege deze regel of vanwege die regel.

[0:43:54] En natuurlijk, we zijn een rechtsstaat en we houden ons aan die regels,

[0:43:57] maar als we zien dat we daarmee veel te weinig kunnen

[0:44:01] dan datgene wat we eigenlijk zouden moeten willen kunnen,

[0:44:03] dan betekent dat misschien dat we daar wat meer ruimte moeten zoeken.

[0:44:06] En zeker in dat desinformatiedomein,

[0:44:08] Ik heb zelf een aantal AIO's die hier actief onderzoek naar aan het doen zijn.

[0:44:10] Het gaat echt heel erg hard.

[0:44:12] En die AI wapenwetloop, die is gewoon heel hard bezig.

[0:44:17] Dus ja, ik denk zoek naar meer juridische ruimte.

[0:44:20] Ik denk dat dat een punt is.

[0:44:22] Raakte ook aan het punt waar ik helemaal in het begin mee begon

[0:44:24] met het proefschrift van afgelopen week, waarin ook werd gezegd

[0:44:28] ethisch en institutioneel.

[0:44:31] Dus in het juridische domein daar is ruimte te vinden.

[0:44:34] Maar daarnaast in het instituut, als het gaat om innovatie

[0:44:37] in alle regels die er zijn. Als we het hebben over aanbestedingsprocedures,

[0:44:42] misschien dat daar ook nog wel wat meer ruimte te vinden is.

[0:44:45] Als we zien hoe snel onze Oekraïense collega's aan het innoveren zijn,

[0:44:49] omdat ze wel moeten, en als we zien hoe bij ons innovatietrajecten

[0:44:54] soms toch wel langer duren dan nodig zou moeten zijn,

[0:44:57] dan denk ik dat daar ook nog heel veel winst te behalen valt,

[0:45:00] ook door naar die institutionele regels te kijken.

[0:45:02] Dus dat zouden voor mij de twee aandachtspunten zijn om op te focussen.

[0:45:13] Ik nam deel aan de oppositie bij een proefschrift wat uiteindelijk een cum laude werd op de

[0:45:20] Universiteit van Amsterdam, van Jonathan Quick, en dat ging over autonome wapensystemen, gebruik

[0:45:25] van artificial intelligence daarin en of dat rechtmatig kon worden ingezet.

[0:45:29] Het was een gelaagd proefschrift, technisch op AI-vlak, krijgswetenschappelijk op wapenvlak

[0:45:37] eigenlijk en juridisch op oorlogsrecht vlak. En hij debunkte, hij maakte korte metten met

[0:45:44] een aantal frames die gebruikt worden in de discussie. Frames of gewoon ook rechtmatig

[0:45:52] eerlijke posities die weliswaar niet correct bleken te zijn op basis van zijn onderzoek.

[0:45:59] Dus ik denk dat als je scherp hebt hoe juridische kaders eruit zien, nu al, als je dus de kennis

[0:46:05] in huis hebt om duidelijk te kunnen maken, bijvoorbeeld is een wasstraat, dit is groen

[0:46:09] en dit is rood en dit is oranje, daar moeten we echt naar kijken. Als je die helderheid

[0:46:13] en klaarheid kunt bieden, dan stel je mensen ook op hun gemak. Dan verschaf je zekerheid

[0:46:20] en dan zijn mensen bereid om wel overwogen die systemen te gebruiken, omdat ze weten

[0:46:27] waar ze verantwoordelijkheid voor dragen. En als je weet waar je voor verantwoordelijk

[0:46:35] Als je dat weet en als je die afweging kan maken, dan heb je capaciteit.

[0:46:40] Dan heb je in feite vermogen in huis, want je weet ook hoe je het gaat gebruiken.

[0:46:45] Dus ik denk dat als je de grootste versnelling die je kunt zoeken,

[0:46:48] of de grootste lacune die je aantreft, dezelfde vraag op een andere manier geformuleerd,

[0:46:54] is dat je klaarheid biedt over de juridische kaders.

[0:46:57] En als je tot de conclusie komt dat je juridisch frame ontoereikend is,

[0:47:01] of dat nou nationaal is of internationaal, dat maakt niet uit.

[0:47:04] Maar als het ontoereikend is en je ziet kansen om daar verbeteringen aan te brengen en dat

[0:47:08] is ook wat je wil, omdat je weet welke taak vervuld moet worden, welke belangen beschermd

[0:47:12] moeten worden.

[0:47:13] En omdat je weet dat als ik dit nalaat, kan ik die bescherming niet garanderen, dan draag

[0:47:19] ik bij, willens en wetens, aan een papieren tijger, dan verschaf je zekerheid, zelfverzekerheid

[0:47:26] en dan kun je ook draagvlak verwerven.

[0:47:29] Je kunt namelijk uitleggen waarom die aanpassing nodig is en je kunt ook uitleggen wat de prijzen

[0:47:34] die je betaalt, als je dat niet doet. Dus daar ligt de grootste lacune voor meneer Eikens en daar

[0:47:40] ligt voor meneer Tuinman volgens mij de grootste winst. Leg uit waar het mankeert, leg uit hoe je

[0:47:47] dat op kan lossen en vraag aan degenen die hierover gaan of ze bereid zijn daar een stap voor te zetten

[0:47:54] en de consequenties te willen dragen als ze dat niet doen. Even kijken, ik zou overigens niet

[0:48:02] in een krijgsmacht willen dienen, die willens en wetens legitimiteit niet hoog in het vaandel

[0:48:08] had staan.

[0:48:09] En legitimiteit bepalen we natuurlijk met z'n allen zelf in internationaal verband, de staten,

[0:48:14] maar ook de ethos van de militair zit daar achter.

[0:48:19] En dat betekent dat je soms minder middelen en methoden aan wil wenden dan een tegenstander

[0:48:28] dat misschien doet, die een andere modus hanteert.

[0:48:32] Maar dat is, denk ik, de positie die je dan inneemt als Westerse krijgsmacht.

[0:48:39] Ik zou het niet anders willen, maar ook die keuze heeft een prijs.

[0:48:47] Dank u wel. Dan wil ik volgens mij nog één rondje doen met zo kort mogelijke vragen, want we hebben nog tien minuten.

[0:48:55] Oh, geen vragen. Collega Karreman.

[0:48:58] Dank u wel, voorzitter. We hebben het heel veel over regels, wetgevingen, noem maar op dingen die ons beperken.

[0:49:04] Ik snap het, als we AI inzetten of autonome wapens, wie beslist dat er een schot afgevuurd

[0:49:11] mag worden, dat dat nog steeds de mens is, dat we dat hebben vastgelegd in wetgeving en

[0:49:16] noem maar op.

[0:49:17] Maar ik denk het gebruik van technologie, je kunt heel veel gebruiken in de ondersteuning

[0:49:21] tot om die militair de juiste keuzes te laten nemen.

[0:49:25] Wat beperkt ons daar om technologie echt volledig in te zetten om die militair echt zo maximaal

[0:49:30] te ondersteunen?

[0:49:32] Collega Tuijman.

[0:49:35] Eigenlijk een vraag over afschikking, maar die bewaar ik zo meteen voor de volgende ronde.

[0:49:39] Mijn vraag is deze.

[0:49:40] We zien natuurlijk dat binnen de NAVO er allerlei stappen worden gezet, ook op het gebied van multidubaine operaties.

[0:49:45] Maar ook daadwerkelijk dat we steeds meer informatie moeten gaan delen, moeten gaan sharen,

[0:49:49] dat we het niet allemaal met mensen kunnen gaan verwerken.

[0:49:52] Dus in hoeverre zien we eigenlijk dat ook die, even plat gezegd, de NAVO allerlei stappen maakt,

[0:49:58] dat het straks misschien zelfs wel niet acceptabel is of niet meer werkbaar is,

[0:50:03] dat je als aparte mogendheid Nederland en deze daar wel of niet in meegaat.

[0:50:10] Collega Noordkamp, we hebben twee vragen en hebben zeven minuten de tijd voor.

[0:50:15] Ik begin nu bij de heer Ossian weer.

[0:50:20] Dat is een heel ingewikkeld vraag. Wat houdt ons tegen om techniek meer te gebruiken in de ondersteuning van besluitvorming?

[0:50:32] Met onze vakgroep Grijswetenschappen aan de Defensieacademie hebben we nu twee jaar gefocust op Oekraïne en de oorlog daar.

[0:50:43] Net een vette publicatie, vet in de zin van Dick, afgeleverd daarover.

[0:50:51] En wat we daarin zien is dat in Oekraïne niets ze tegenhoudt.

[0:50:58] De Oekraïners kennen weinig beperkingen, anders dan middelen die ze kunnen verwerven of krijgen,

[0:51:05] in het toepassen van allerlei vormen van techniek.

[0:51:08] En dat varieert, en dat kan Roy veel beter vertellen dan ik, denk ik,

[0:51:12] maar dat varieert van software die aan de hand van luchtbeelden objecten identificeert

[0:51:20] en ze labelt als een, dit is een infanteriegevechtsvoertuig, dit is een tank,

[0:51:24] en het is dat en dat type en er hangt dan waarschijnlijk een vlaggetje aan, denk ik, maar dan zo voor.

[0:51:28] En op basis van die ondersteuning van het consumeren, het waarnemen van de beelden,

[0:51:36] worden razendsnel ook beslissingen genomen die tot aanvallen leiden.

[0:51:41] En u hebt misschien wel eens die foto's gezien dat op één zo'n groot HD-scherm,

[0:51:45] dan staan er veertig van die streams van verschillende drones en die zijn gelabeld.

[0:51:49] En dan zitten er vier man met allemaal apparaten aan elkaar geknoopt, die bij hun mediamarkt

[0:51:55] vandaan komen, waarmee ze die beslissingen nemen en doorsturen en dan volgt een aanval

[0:52:01] uit.

[0:52:01] Overigens, die aanval wordt weer gefilmd en die wordt weer gebruikt voor informatiecampagnes.

[0:52:08] Dus ook in die zin, ook in het inzicht brengen van effecten van aanvallen, wordt die techniek

[0:52:16] ook weer gebruikt door ondersteuning van het narratief aan de Oekraïnse kant, ook aan

[0:52:21] de Russische kant trouwens. Wat houdt ons tegen? Ja, dat is een goeie. Ik denk ons,

[0:52:29] wij zelf, het comfort wat we hebben met nieuwe dingen experimenteren. Er zijn behoudende

[0:52:36] krachten, maar er zijn ook hele vooruitstrevende geesten en die mogen we experimenteren, maar

[0:52:43] maar dat moet dan uiteindelijk wel op de mat gebracht worden.

[0:52:48] En je wil dat kunnen beoefenen, misschien zit daar dan wel de grootste belemmering,

[0:52:53] de angst dat we iets gaan oefenen wat misschien niet oké blijkt te zijn.

[0:52:57] Maar ja, daar kom je pas achter als je ermee oefent.

[0:53:00] Dus als je met allerlei fancy gadgets gaat oefenen en het blijkt dan in de evaluatie

[0:53:05] van dit was eigenlijk niet wat we als afkadering, inkadering hiermee voor ogen hadden, dan kun

[0:53:11] dat we anders moeten begrenzen.

[0:53:16] Maar onze eigen voorzichtigheid, terughoudendheid,

[0:53:21] onze eigen angst om dingen fout te doen,

[0:53:24] misschien houdt dat ons het meeste tegen.

[0:53:27] Er zijn liberale geesten genoeg.

[0:53:30] Er zit er één naast u.

[0:53:32] In zijn vorige baan.

[0:53:35] Ben ik toch wel benieuwd. De liberale geest bij deze.

[0:53:41] Dankjewel. Ik ben heel blij met deze vraag.

[0:53:46] Namelijk inderdaad, het militaire besluitvormingsproces, de militaire besluitvormingsprocessen zijn vele, vele malen breder dan target engagement met autonome systemen.

[0:53:54] Dat is waar deze vraag op duidt. De discussiepubliek gaat heel vaak over target engagement met autonome systemen, de zogenaamde killer robot die nog steeds niet echt bestaat.

[0:54:03] En daarmee gooien we bijna het kind met het badwater weg, want al die andere verschillende

[0:54:08] besluitvormingsprocessen die er zijn, of het nu gaat om het inzetten van je logistiek of

[0:54:12] inderdaad het herkennen van, doen van inlichtingen en surveillance en het herkennen van panzervoertuigen

[0:54:18] in beelden, nou er zijn enorm veel voorbeelden te benoemen waarin AI een enorme hulpmiddel

[0:54:26] is en ook aantoonbaar als we het vergelijken met de menselijke besluitvorming, een mens

[0:54:30] die tien uur lang naar videobeelden aan het kijken is, die wordt gewoon moe. Die maakt fouten. Een

[0:54:35] computer wordt niet moe en die haalt gewoon die panzervoertuigen eruit. Dus daar gaat uw vraag

[0:54:42] over. En wat houdt ons daarentegen? Ja, toch inderdaad vaker wel als het gaat om datasets

[0:54:47] waar op de een of andere manier een herleiding te vinden is naar persoonsgegevens, dan is het de AVG

[0:54:52] die al heel vaak zegt van dit mag niet, tenzij je onder specifieke regimes zoals de WIV bijvoorbeeld

[0:54:57] of andere regimes valt, maar heel vaak mag dat niet.

[0:55:00] Als er al een kenteken in een beeld zit, een kenteken is er leidbaar tot een persoonsgegeven.

[0:55:06] Ik ben geen jurist, maar als ik dat goed heb begrepen is dat zo.

[0:55:09] En dat betekent vaak dat je dat dus niet mag gebruiken of dat je in die situaties dingen niet mag doen.

[0:55:13] Waarbij eigenlijk met gezond verstand, en dat zeg ik ook weer even als niet jurist,

[0:55:18] maar met gezond verstand er helemaal niks aan de hand is.

[0:55:20] En dat zijn juist die plekken waar ik denk waar makkelijk winst te behalen valt.

[0:55:25] Dus in die hele grote keten van besluitvormingsprocessen waar data verzameld wordt en analyse is gemaakt,

[0:55:30] waar we dat toch vaak niet durven of niet doen vanwege de interpretatie van de AVG.

[0:55:36] Laat ik het even daarop houden.

[0:55:38] De andere vraag van de heer Tuinman heb ik volgens mij niet helemaal goed begrepen,

[0:55:41] maar ging over hoe we participeren in internationaal verband bijvoorbeeld met de NAVO en we daarin data delen.

[0:55:47] Ik denk dat het heel belangrijk is om in dit soort ontwikkelingen juist internationaal te participeren binnen de NAVO

[0:55:53] vanwege standaardisatie en interoperabiliteit van allerlei verschillende systemen die we

[0:55:58] aan het ontwikkelen zijn. Dank u wel.

[0:56:02] Dank u wel. En dan de laatste drie minuten voor mevrouw Cornelissen.

[0:56:07] Ja, wat houdt ons tegen? Ja, inderdaad de AVG of de uitvoeringsbesluiten AVG vaak zal

[0:56:13] dat zijn bij het, zeker als het gaat om oefenen en in dat opzicht is natuurlijk ook een heel

[0:56:18] groot verschil. Het voorbeeld dat wordt aangehaald van Oekraïne, dat is een land dat gewoon

[0:56:24] zonder meer gewapend aangevallen is, ook in Nederland zou er dan natuurlijk veel meer mogelijk zijn.

[0:56:32] En dat is nou juist ook het probleem dat we zien bij die context van hybride dreigingen,

[0:56:39] wanneer we worden continu aangevallen in het cyber domein.

[0:56:47] Hoe ver willen wij dan gaan met ons vasthouden aan de normale juridische gang van zaken,

[0:56:53] de AVG, of zeggen we nee, daar moeten we bijzondere regimes voor hebben.

[0:57:00] En ik denk dat dat heel belangrijk is om die discussie te hebben.

[0:57:07] Ik ben het toch niet helemaal eens met de opmerking van mijn voorganger die zegt

[0:57:11] ja, met gezond verstand denk je, er is eigenlijk niet zo veel aan de hand.

[0:57:16] Juist als we kijken naar de betrokkenheid van private actoren

[0:57:19] die deze gegevens ook in die context kunnen verzamelen,

[0:57:24] dus die betrokken zijn met dit soort operaties,

[0:57:27] is het wel heel belangrijk om in ieder geval te weten wat er gebeurt

[0:57:31] en wat er dan ook gebeurt met die gegevens daarna.

[0:57:35] Daar kan je natuurlijk ook regels voor maken, maar die zijn er nu nog niet.

[0:57:39] Dus om zonder meer te denken van daar is niet zoveel mee aan de hand,

[0:57:45] daar zou ik me niet helemaal bij aansluiten.

[0:57:47] Die moet wel degelijk politiek en juridisch daar heel goed grip over op blijven hebben.

[0:57:53] Helemaal omdat het niet alleen maar een activiteit is die zich in het publieke domein afspeelt.

[0:58:01] Dank u wel. Ik zie nog een keer een debat als vervolg hier op deze rollentafel georganiseerd worden.

[0:58:09] Ontzettend dank voor jullie inbreng, voor jullie voorbereiding en bijdrage en antwoorden op de vragen.

[0:58:14] Dank aan de collega's. Ik schors hem nu voor een kwartier.

[0:58:16] en dan gaan we zo meteen door met deel twee van deze ronde tafel.

[0:58:19] Dank u wel.

[1:13:11] Mooi, het is vier uur.

[1:13:14] Dat is de tijd voor de tweede helft van deze ronde tafel.

[1:13:18] Ik wil voor deze tweede helft van harte welkom heren aan de heer

[1:13:21] Zwijs van HCSS en mevrouw Groeneveld, of kolonel Groeneveld moet ik zeggen,

[1:13:26] van NATO Command and Control Center of Excellence en de heer Smalleganger van TNO.

[1:13:34] Van harte welkom.

[1:13:34] Ik zou allereerst het woord willen geven aan de heer Zwijs.

[1:13:38] U heeft geloof ik meegegeven drie tot vier minuten.

[1:13:40] U mag wat meer de tijd nemen om uw inbreng te leveren.

[1:13:44] En vervolgens zullen mijn collega's een aantal vragen stellen...

[1:13:47] en dan het verzoek aan u om daar een antwoord op te geven.

[1:13:50] Twee collega's zijn heel even afwezig.

[1:13:53] Stemmingen, dat is het belangrijkste waar wij voor betaald worden.

[1:13:55] Die zijn op dit moment aan de gang.

[1:13:58] Het is het minimale.

[1:14:02] Maar het is wel het belangrijkste.

[1:14:05] Maar die verwacht ik wel elk moment hier weer terug.

[1:14:08] Maar wij moeten gewoon een begin aan het vijveren en we hebben gewoon een harde eindtijd.

[1:14:14] Een microfoon alsjeblieft.

[1:14:15] Laten we van start gaan.

[1:14:17] Dank voor de uitnodiging.

[1:14:18] Belangrijk thema.

[1:14:19] Fijn om hier bij te kunnen zijn en bijdrage te kunnen leveren.

[1:14:22] Mijn naam is Tim Swijs, ik ben onderzoeksdirecteur bij HCSS.

[1:14:25] Een onderzoeksinstituut hier niet ver vandaan dat wij in 2007 oprichtten,

[1:14:29] toen nog veel minder aandacht was voor internationale veiligheid.

[1:14:32] Laat staan voor oorlog.

[1:14:35] Ik ben ook geaffiliëerd met de War Studies Research Center van de Nederlandse Defensie

[1:14:40] Academie waar ik een tienweekse cursus over de future of war geef en later deze maand

[1:14:45] publiceer ik een boek en dat heet Beyond Ukraine, debating the future of war.

[1:14:50] Mijn bijdrage vandaag is gebaseerd op een onderzoek dat ik samen met een collega, Davis Ellison,

[1:14:56] heb gedaan waar we een jaar lang hebben gekeken naar hoe multidomein operaties wordt vormgegeven

[1:15:01] binnen de hoofdkwartieren van bondgenoten en ook van andere militaire machten en naties.

[1:15:09] We zijn langs geweest in de VS, Israël, Duitsland, Frankrijk en Denemarken onder meer.

[1:15:14] En we doen ook veel werk voor NAVO's Allied Command Transformation op dit gebied.

[1:15:20] Wel nu, dat gezegd hebben, er waart een nieuw warfighting concept door de hoofdkwartieren van majeure militaire organisaties.

[1:15:27] En dat warfighting concept, dat heet multidomein operaties.

[1:15:30] Militairen zijn dol op afkortingen, IGO, MDO, multidomein operaties.

[1:15:37] MDO poocht een raamwerk te bieden voor militaire organisaties over hoe ze militaire operaties

[1:15:42] kunnen gebruiken om militaire doelen te bereiken.

[1:15:46] Een warfighting concept zoals MDO is essentieel omdat het in traditioneel Nederlands kan helpen

[1:15:52] de neus in dezelfde richting te doen laten wijzen.

[1:15:56] Het kan helpen als een leidraad bij de ontwikkeling van personeel, de aanschaf van capaciteiten,

[1:16:03] het doen van oefeningen.

[1:16:04] En in het verleden hebben we zulke warfighting-concepten gehad die die functie hebben vervuld.

[1:16:08] Denk bijvoorbeeld aan air battle in de Koude Oorlog, denk aan network-centric warfare in

[1:16:13] de jaren negentig, maar denk ook minder lang geleden aan bijvoorbeeld coin counterinsurgency-operaties.

[1:16:20] Zo'n functie, zo'n rol heeft MDO, multidomein operaties.

[1:16:26] Wat is MDO? MDO komt erop neer dat militaire organisaties activiteiten door de verschillende

[1:16:31] domeinen van oorlog orchestreren om zo synergetische effecten te bereiken.

[1:16:37] Dat is een hele mond vol, maar het idee is dat je sneller en slimmer dan je tegenstander

[1:16:43] kan opereren, dat je je tegenstander pijn kan doen, omdat je op allerlei activiteiten

[1:16:48] zo kan coördineren dat je hem in allerlei domeinen aanpakt.

[1:16:51] Dus je stuurt landtroepen vooruit, je hebt SOF, het is jammer dat Gijs Tuijman er niet is,

[1:16:57] je hebt special operations forces die achter het front aan het rotzooien zijn,

[1:17:02] je hebt lucht- en maritieme aanvallen, er is ondertussen een elektromagnetische oorlogsvoering

[1:17:07] waarmee je de ogen en de oren van de tegenstander verblindt en verdooft,

[1:17:12] en er is op strategisch niveau een informatieoperatie bezig waarmee die misleid wordt.

[1:17:17] Nou, dat op papier is MDO en dat klinkt in theorie vrij goed of in ieder geval aannemelijk.

[1:17:25] Die opkomst van MDO, daar is al wat over gezegd, wil ik niet langer over uitweiden, maar heeft

[1:17:29] te maken met twee grotere trends.

[1:17:32] Enerzijds wat ze noemen pervasive transparency, oftewel alles penetrerende transparantie.

[1:17:37] En anderzijds ubiquitous connectedness, oftewel allomverbreide verbondenheid.

[1:17:41] Nou, hele mond vol opnieuw, maar dat heeft gewoon voornamelijk te maken met het feit

[1:17:47] dat er overal sensoren zijn, of het nou mobiele telefoons zijn of satellieten, sensoren en

[1:17:53] communicatiedeviezen, die het mogelijk maken om te gaan coördineren door deze verschillende

[1:17:56] domeinen heen.

[1:17:59] Wij hebben gekeken naar hoe MDO ontwikkeld wordt.

[1:18:02] En we hebben een aantal bevindingen, ik wil die bevindingen delen, ik wil een aantal problemen

[1:18:05] benoemen en dan wil ik naar een aantal oplossingsrichtingen gaan en ik zou rekening houden met die extra

[1:18:10] paar minuten die ik heb gekregen, meneer de voorzitter. Allereerst, MDO is the name of the

[1:18:15] game. Het mag dan een baaswoord zijn, het is opgenomen in beleidsdocumenten van de bondgenoten,

[1:18:21] van de NAVO, maar ook van mogelijke tegenstanders. Iedereen doet aan MDO als je wil. China heeft het

[1:18:28] over een ambitie om multidomain precision warfare te ontwikkelen. Maar als je kijkt naar de aanvallen

[1:18:33] van Hamas op 7 oktober, zie je ook dat een niet-statelijke acteur in staat is om georchestreerde

[1:18:38] operaties te land, ter zee, te lucht en in de informatiedomein uit te voeren met

[1:18:44] strategische consequenties en vergaande gevolgen.

[1:18:47] Met andere woorden, die internationale trein die MDO heet, die is vertrokken,

[1:18:51] die heeft het station verlaten en ongeacht welke titel natuur het uiteindelijk krijgt,

[1:18:55] dat is iets dat ik niet zo snel zal zien ontbuigen.

[1:19:00] Ik zie wel een aantal problemen bij de ontwikkeling en de implementatie van MDO.

[1:19:05] De Nederlandse defensieorganisaties zijn daar ook hard mee bezig, dus vandaar lijkt

[1:19:08] relevant om een aantal van deze problemen hier te benoemen.

[1:19:12] Allereerst is er internationaal gezien sprake van Babylonische spraakverwarring,

[1:19:17] waarin verschillende landen, ook verschillende krijtsmachtonderdelen soms,

[1:19:20] verschillende termen gebruiken. Ze spreken op verschillende niveaus,

[1:19:24] strategisch, operationeel, tactisch. Ze hebben het over verschillende scopes.

[1:19:28] Sommigen denken alleen militair, sommigen denken ook civiel,

[1:19:30] sommigen focussen heel erg technologisch, anderen ook organisationeel.

[1:19:35] Daarnaast heb je het feit dat er sommige landen over domeinen spreken en andere landen over

[1:19:40] dimensies.

[1:19:41] Om kort te gaan, er zit nogal wat licht tussen de verschillende definities die er bestaan.

[1:19:47] Het tweede is dat als baswoord MDO mooi klinkt, misschien, maar als zodanig ontbeert MDO wat

[1:19:55] militairen noemen een theory of victory.

[1:19:58] Dus het is misschien belangrijk om cross-domijn te orchestreren voor synergetische effecten,

[1:20:03] Maar als je niet de concrete oorlogsscenario's hebt en de concrete vijand, waarin je ook

[1:20:08] een analyse maakt van hoe je deze vijand militair kan verslaan, dan zijn het eigenlijk niet

[1:20:12] meer dan loze woorden.

[1:20:13] Dus kortom, MDO moet verder strategisch en conceptueel uitgedacht worden, nog los van

[1:20:18] alle technologische componenten die daarbij een rol moeten spelen.

[1:20:23] Derde punt is die technologie.

[1:20:25] Technologische maturiteit, volwassenheid van technologie, de beschikbaarheid daarvan is

[1:20:28] een groot probleem.

[1:20:29] Er wordt uitgegaan van de beschikbaarheid van technologieën om te kunnen orchestreren

[1:20:35] door die domeinen heen, maar die technologieën die zijn er allemaal nog niet.

[1:20:40] Die zijn er ofwel nog niet omdat ze nog niet bestaan, ofwel ze zijn er gewoon nog niet

[1:20:44] omdat ze niet in voldoende maten en voldoende aantallen beschikbaar zijn.

[1:20:49] En specifiek voor Europa en voor Nederland gaat het om assets op het gebied van C4ISR,

[1:20:55] communicatie, computer, control, commando, informatie, surveillance, reconnaissance

[1:21:00] en elektromagnetische oorlogsvoeringsactiviteiten.

[1:21:04] Vier en korter is internationaal en tot op zekere hoogte ook nationaal

[1:21:08] nog onvoldoende inter-service samenwerking.

[1:21:11] Wij denken altijd aan één defensie en één krijgsmacht,

[1:21:15] maar daarbinnen heb je de verschillende krijgsmacht onderdelen.

[1:21:17] Dus bij de ontwikkeling van MDO's, zowel waar het gaat om de opleiding,

[1:21:21] om de training, maar ook bij het oefenen,

[1:21:23] Zullen daar, zal daar beter samengewerkt moeten worden, wat nu nog niet gebeurt.

[1:21:28] En vijf, er is nog weinig aandacht voor de risico's die gepaard gaan met MDO.

[1:21:32] Denk aan informatie, overload, gewoon te veel informatie.

[1:21:36] Denk aan te grote afhankelijkheid van connectiviteit, terwijl die niet altijd vanzelfsprekend is.

[1:21:42] Denk aan het over-engineren van een MDO-benadering.

[1:21:47] En ook de assumptie dat het geheel MDO meer is dan de som der delen.

[1:21:51] Het goede nieuws is, en dan ga ik, meneer de voorzitter,

[1:21:54] naar twee oplossingen toe en dan geef ik het woord toe,

[1:21:57] is dat er wel degelijk oplossingen zijn voor de hier gesignaleerde problemen.

[1:22:00] Daar kunnen we in de Q&A uitgebreider op ingaan,

[1:22:02] maar ik wil er in elk geval twee oplossingsinrichtingen benoemen

[1:22:06] waar u als Kamerlid ook een rol in kan spelen bij de bevordering daarvan.

[1:22:11] De eerste oplossingsrichting die ik zou willen voorstellen is

[1:22:13] stel een nieuwe commissie lessen van contemporaine conflicten in.

[1:22:18] Een commissie die naar bestaande conflicttheaters gaat

[1:22:21] en daar bestudeert welke lessen getrokken kunnen worden uit hedendaags conflict voor militair optreden.

[1:22:26] En dan praten we natuurlijk specifiek over MDO.

[1:22:28] We kunnen dat beter doen, informatie gestuurd opreden.

[1:22:31] We kunnen kijken naar artificiële integrentie, et cetera, et cetera.

[1:22:33] Kijk naar hoe Hamas opereert. Analyseer hoe Israël vecht.

[1:22:37] Bestudeer hoe de Azeri, de Armeniers de machtsbalans in de relatieve tijd hebben omgedraaid

[1:22:42] en de Armeniers op de knie hebben gedwongen met nieuwe operationele concepten.

[1:22:47] Leer van hoe de Oekraïne, pardon, de Oekraïners en de Russen de laatste twee jaar opereren

[1:22:51] en hun concepten en hun modus operandi aanpassen.

[1:22:54] Zo'n commissie lessen contemporaine conflicten, zo moeten bestaande mensen van binnen en buiten

[1:22:59] de overheid, met militairen en niet-militairen daarbinnen, die korte rapportages uitbrengen.

[1:23:06] En daarmee kun je het lerend en ook het aanpassend vermogen van defensie vergroten.

[1:23:11] En het stelt Nederland ook in staat, een groot Nederlands denker, Johan Cruijff, die niet

[1:23:17] sterkst moet slim zijn, is dat Nederland ook in staat om een aanjagende rol te

[1:23:21] spelen, juist op het gebied van conceptontwikkeling binnen de NAVO en bij

[1:23:24] partners met wie we nou samenwerken. Denk bijvoorbeeld aan Duitsland.

[1:23:27] Dat is mijn eerste aanbeveling. Mijn tweede aanbeveling hangt samen met dat

[1:23:31] lerende en aanpassend vermogen en voor de schorsing is daarover gesproken.

[1:23:36] Namelijk, we moeten veel kortere R&D, research and development loops hebben.

[1:23:41] En R&D gelden, en dat gaat wel om vele miljoenen, moeten niet alleen

[1:23:46] gaan naar het ontwikkelen van fundamentele technologieën, met een heel laag technology

[1:23:52] readiness level, TRL, maar geld moet ook gaan naar de ontwikkeling at the edge, waarin operators,

[1:23:59] denk aan militaire professionals, in simulaties in het veld technologie uitproberen en die

[1:24:04] ook toepassen om ze vervolgens door te ontwikkelen.

[1:24:08] We zien daar een aantal experimenten van, maar dat zijn niet meer dan druppels op een

[1:24:11] gloeiende plaats.

[1:24:14] Ik wil een voorbeeld nemen om het beeld en geluid te geven en dan geef ik het woord

[1:24:17] graag over.

[1:24:18] Neem bijvoorbeeld Command & Control, waar Miette Groeneveld zo over zou spreken.

[1:24:24] Ik denk dat we moeten gaan experimenteren met grote aantallen sensoren, gecombineerd met

[1:24:28] de ontwikkeling van C2-omgevingen, waarin er zowel virtuele als hologram omgevingen

[1:24:35] worden gecreëerd, die op verantwoordelijke wijze gebruik maken van allerlei algoritmische

[1:24:39] toepassingen.

[1:24:40] En als het dan werkt, dan moet er natuurlijk snel opgeschaald worden.

[1:24:43] Denk bijvoorbeeld wat er nu in Oekraïne gebeurt met de Army of Drones.

[1:24:48] Het goede nieuws is dat kunnen we.

[1:24:50] Er is een top gaming industrie in Nederland.

[1:24:52] We hebben super goede data scientists in het ecosysteem in Delft en Den Haag.

[1:24:56] En er zijn ook tal van kleinere bedrijven die hier aan mee kunnen doen.

[1:24:59] Maar in de regel zien we dat soort experimenten plaatsvinden, maar eerder, ja, niet gratis

[1:25:04] bier, maar dat het gaat om klein bier.

[1:25:06] Dit zijn mijn twee aanbevelingen om dit een push te geven, een versnelling.

[1:25:10] En dan geef ik graag het woord terug, voorzitter.

[1:25:14] Dank u wel. Dan het woord aan Corona Groeneveld.

[1:25:18] Ja, dank u wel. Het is een eer voor mij om hier te mogen zijn.

[1:25:22] Ik ben niet zo welbespraakt als mijn...

[1:25:24] Maar ik ga toch een poging wagen.

[1:25:27] Mijn naam is Miëtta Groeneveld. Ik ben 37 jaar militair actief dienend.

[1:25:33] Ik heb een achtergrond in de technische dienst, maar ik heb ook technische natuurkunde gestudeerd.

[1:25:37] En daarom kan ik, denk ik, ook meepraten over het technische domein.

[1:25:44] Op dit moment ben ik director van het NATO Command and Control Center of Excellence.

[1:25:48] Dat is niet NATO, dat is een...

[1:25:51] NATO kent dertig Centers of Excellence.

[1:25:54] En deze Centers of Excellence zijn eigenlijk de transformatiepower van NATO.

[1:25:59] Want daar kijken we hoe we die entiteit NATO zouden kunnen transformeren.

[1:26:06] Dat is nodig, want als je elke keer met 32 landen probeert om consensus te vinden ergens in,

[1:26:12] dan ga je zeker niet snel transformeren.

[1:26:15] En die snelle transformatie is op dit moment hard nodig,

[1:26:19] want er zijn eigenlijk drie grote drijvers

[1:26:23] die NATO aan de basis van een enorme transformatie zet.

[1:26:27] En de eerste is dat NATO cyber en space als warfighting domains heeft geïntroduceerd.

[1:26:35] En dat betekent dat we daar iets mee moeten, want cyber en space zijn voor een deel civiel.

[1:26:44] Entiteiten vinden civiel plaats en dat vraagt dus aanpassing hoe we daarmee om moeten gaan.

[1:26:53] Daarnaast zien we een ongelooflijke astronomisch snelle technologische ontwikkeling

[1:26:58] die zorgt dat niet alleen maar de manier waarop we met elkaar kunnen spreken totaal verandert,

[1:27:06] maar vooral ook de manier waarop we zouden kunnen vechten.

[1:27:10] Dus dat betekent dat die toekomstige warfighting er heel anders uit gaat zien.

[1:27:16] Een deel van NATO kijkt ernaar, dat is het deel bij de Allied Command Transformation.

[1:27:22] Maar u hoort vaak van de Allied Command Operations.

[1:27:25] en die kijken wat er op dit moment beschikbaar is

[1:27:28] en hoe we met de spullen die we vandaag hebben zouden kunnen optreden.

[1:27:32] Dat moet u niet verwarren met wat u vandaag moet kopen,

[1:27:36] want dat is wat u nodig heeft voor dat toekomstige gevecht.

[1:27:44] En dat is natuurlijk een spanningsveld.

[1:27:47] En wij vullen daar een rol in.

[1:27:48] Wij vullen een rol in het brengen van die transformatie

[1:27:52] en het vertalen van de concepten die NATO zelf ontwikkelt

[1:27:56] op dat gebied van die Allied Command Transformation naar de landen toe.

[1:28:01] Omdat we zien dat in die vertaling er veel bubbels zijn

[1:28:05] waarin men hun eigen beeld heeft.

[1:28:09] En het is belangrijk om die beelden bij elkaar te brengen.

[1:28:13] En eigenlijk kunt u het NATO C2 Center of Excellence ook zien

[1:28:17] als een soort vrijwillige bijdrage van Nederland aan NATO,

[1:28:22] want het wordt voor een groot deel betaald door Nederland, omdat Nederland de Framework Nation is,

[1:28:28] maar het is wel een multinationale instituut. Dan zou ik er nog één ding over zeggen.

[1:28:36] Kijk, NATO bestaat zelf uit een hoofdkwartierstructuur, waar we veel over hoorden,

[1:28:40] maar die hoofdkwartierstructuur die komt pas aan de beurt als we een Article 5 hebben.

[1:28:46] Dus ik zeg altijd, dat is eigenlijk als NATO heeft gefaald, want we willen natuurlijk voorkomen

[1:28:51] dat dat ooit gaat gebeuren.

[1:28:53] Dus het gaat vandaag om deterrence

[1:28:55] en ook een deterrence campaign.

[1:28:58] En daarin

[1:28:59] betekent dat dat Nederland

[1:29:01] in de lead is.

[1:29:03] De NATO-landen zijn in de lead.

[1:29:06] En die NATO-landen

[1:29:07] die moeten nu

[1:29:09] multidomain operations doen.

[1:29:11] Die moeten bij elkaar gaan krijgen

[1:29:13] om te zorgen dat ze een gezamenlijk

[1:29:16] effect krijgen

[1:29:17] om te voorkomen dat

[1:29:19] dat Poetin verder gaat dan U.N.S. en daar ook mee stopt.

[1:29:25] En om dat gezamenlijk effect te gaan krijgen, is veel meer nodig dan alleen maar

[1:29:32] militair-tactisch zorgen dat zaken op elkaar aangesloten zijn.

[1:29:37] We weten allemaal dat op dit moment in het

[1:29:39] cyber domein we ook onder de tech staan.

[1:29:44] Die dingen moeten afgestemd worden.

[1:29:46] Dat moet allemaal multinationaal gebeuren.

[1:29:48] Dat kunt u niet binnen Nederland zelf doen.

[1:29:50] Als u nu niet heeft gepraat met landen binnen Europa

[1:29:55] over wat u eigenlijk wilt bereiken,

[1:29:59] en als u niet nadenkt wat het effect is van de besluiten die u neemt

[1:30:05] met betrekking tot uw militaire instrument of power,

[1:30:08] namelijk we gaan enhanced forward presence doen,

[1:30:12] we gaan materieel leveren,

[1:30:14] Dan loopt u het risico dat wij als Europese landen of NATO-landen elkaar niet aan het versterken zijn.

[1:30:24] En dat is, denk ik, een heel belangrijk aspect van die MBO.

[1:30:28] Dus dat betekent dat er eigenlijk een whole-of-government-approach moet zijn binnen Nederland en dat u die moet gaan inrichten.

[1:30:37] Daarnaast, binnen Defensie is de verandering van mindset en cultuur waarschijnlijk de belangrijkste

[1:30:44] component van dat MDO. Want op dit moment zien we dat als we kijken naar die land-lucht-marine cultuur

[1:30:53] die we hebben, dat het nog steeds uitmaakt wat de achtergrond is van onze CDS of van SACEUR voor

[1:31:04] de besluiten die hij neemt. Ik zeg ook bewustheid. Dat betekent dat dat zou eigenlijk niet zo mogen

[1:31:12] zijn als wij voldoende rekenschap nemen van de veel grotere en complexe samenhang van

[1:31:21] cyberspace, land, air en zee.

[1:31:26] En dat is, denk ik, de culturele change die u daarin zou moeten zien.

[1:31:31] Als ik dan verder ga naar die enablement, dan zeggen, ja, zegt NATO dus dat multidomain

[1:31:38] operations concept, overigens is dat nul termijn operations concept van nato niet hetzelfde als de

[1:31:43] mdo delen waar mijn collega over gesproken heeft, het nato mdo concept is vastgesteld en er is geen

[1:31:51] discussies, geen discussie over de over dementies of terminologie, want alle landen van de nato

[1:31:59] hebben dit onderschreven, u kunt dat gewoon opzoeken. Wel is het zo dat vooral binnen de

[1:32:05] Verenigde Staten, MDO ook voor allerlei andere concepten gebruikt worden op nationaal niveau.

[1:32:11] Ook in Nederland is dat het geval.

[1:32:13] En natuurlijk mogen die best wel afwijken, maar het moet u niet verwarren met NATO-MDO.

[1:32:19] En daar zit eigenlijk wat mij betreft geen licht in.

[1:32:22] En als ik dan kijk naar die enablement ervan, sorry, het Nederlandse woord ontschiet me even,

[1:32:28] dan gaat dat vooral over de need to share.

[1:32:30] En dat betekent dat we met elkaar, om inderdaad tot convergerende effecten te kunnen komen,

[1:32:38] dus gezamenlijk, dan zullen we veel meer informatie moeten gaan delen.

[1:32:44] Dat informatie delen, dat is natuurlijk ten dele iets technisch, maar dat is niet het grootste probleem.

[1:32:51] Het grootste probleem om informatie te delen zit in de regelgeving die wij daar nationaal voor opgesteld hebben.

[1:32:58] En de mindset van onze mensen.

[1:33:01] Want wij belonen mensen als zij...

[1:33:04] Nee, ik moet anders zeggen.

[1:33:06] Wij straffen mensen als zij per ongeluk of als ze een keer een document kwijtraken waar een iets hogere klassificatie op staat.

[1:33:16] En dan staat er een straf op.

[1:33:19] Maar er staat in ieder geval geen straf op het niet tijdig delen van informatie met anderen.

[1:33:26] En het risico dat u loopt door die informatie niet te delen is vele malen groter dan het risico dat u loopt door die informatie vast te houden.

[1:33:36] Dus dat betekent dat als u nu instrumenteel uw beveiligingsbeleid heeft ingericht, wat op dit moment zo is,

[1:33:43] dan gaat u dus regeltjes volgen die eigenlijk tegenstrijdig zijn met wat u wil bereiken.

[1:33:49] U gaat uw risico niet verkleinen, u gaat uw risico vergroten.

[1:33:53] En het is ongelooflijk belangrijk dat we op nationaal niveau dat beveiligingsbeleid gaan veranderen.

[1:33:58] Als ik u een voorbeeld geef van NATO Secret,

[1:34:01] dus NATO Secret, dat betekent dus dat we een platform hebben,

[1:34:05] een soort platformgedachte, dat we daar een grote muur omheen bouwen

[1:34:08] en dat we dan met vijf miljoen mensen daarop zitten

[1:34:12] en dat dat dan zorgt dat het veilig is omdat die mensen allemaal één keer gecleared zijn.

[1:34:17] Maar u mag daar niet op kijken.

[1:34:19] terwijl ik voor het effect waarbij natuurlijk allerlei civiele entiteiten hele belangrijke

[1:34:25] rollen spelen en we nu bijvoorbeeld met de Oekraïne zouden willen spreken, Oekraïne

[1:34:29] mag er niet op kijken, Japan mag er niet op kijken, Australië ook geen, dus dat betekent

[1:34:37] dat als we samenwerken, dat je natuurlijk per missie specifiek wilt samenwerken en ook

[1:34:44] natuurlijk specifieke oordelen. Dat is technisch al lang opgelost. We gaan dan beveiligen op de data.

[1:34:50] Maar omdat wij in een platformgedachte zitten en daar lastig van afkomen, spenderen we nu miljoenen

[1:34:58] aan infrastructuur om onze kast te beveiligen waar we dan in mogen gaan zitten om het stukje van NATO

[1:35:04] te lezen. Ik kan u op een briefje geven dat dat niet bijdraagt aan de samenwerking die nodig is

[1:35:09] om nu de dreiging te weerstaan.

[1:35:17] Als ik dan kijk naar het laatste, want ik kan hier heel lang over doorgaan,

[1:35:23] dan kijk ik nog even naar artificial intelligence.

[1:35:27] Artificial intelligence en data analytics.

[1:35:31] Op dit moment gaat dat razendsnel en het gaat alles veranderen wat wij doen.

[1:35:37] Maar dus NATO zegt oké we willen naar data gedreven besluitvorming.

[1:35:42] En natuurlijk moet u naar data gedreven besluitvorming.

[1:35:44] Het is absoluut niet goed dat op dit moment nog vaak op basis van powerpoints met 24 uur oude informatie besluiten worden genomen op onze gut feeling.

[1:35:56] Dat is echt niet goed genoeg.

[1:35:58] Allang niet goed genoeg.

[1:36:00] Want dit kan allang veel beter.

[1:36:03] Maar dat is natuurlijk een technische kant.

[1:36:07] Als u nog ergens in een Excel-sheetje iets aan het intikken bent,

[1:36:10] dat had al lang niet meer gehoeven.

[1:36:11] Dat heeft niets met AI te maken.

[1:36:15] Maar het heeft ook vooral te maken met een mindset change.

[1:36:20] Als ik u vertel dat binnen Defensie bij heel veel data

[1:36:24] allang, zoals u weet, in SAP en PeopleSoft hebben zitten,

[1:36:29] Maar de analyse die we op die data zouden kunnen doen,

[1:36:36] op basis waarvan we datagedreven besluiten zouden kunnen nemen,

[1:36:40] dat vraagt dat we ook bereid zijn en dat we ook een change management hebben gedaan

[1:36:45] dat het mogelijk maakt om dit soort datagedreven besluiten te nemen.

[1:36:50] Dat is een bedrijfsvoeringsvoorbeeld,

[1:36:53] maar je kunt die bedrijfsvoering natuurlijk ook vertalen in het militaire domein.

[1:36:57] En ik denk dat het daarbij ontzettend belangrijk is, omdat er zoveel informatie beschikbaar is.

[1:37:04] En als die informatie beschikbaar is, dan kunnen we dat niet meer met een paar mensen analyseren.

[1:37:10] Dan moet u voor die analyse ook besluitvormingsondersteuning inrichten.

[1:37:18] En daarvoor kun je heel veel oplossingen voorzien.

[1:37:25] Uiteindelijk moet je ook kijken naar de ideeën die je hebt voor eventuele oplossingsrichtingen.

[1:37:33] Laat ik dat erg afhangen van één persoon of laat ik me ook ondersteunen in het komen tot een veel

[1:37:40] breder palet aan mogelijke oplossingsrichtingen?

[1:37:44] Of gaan we ervan uit dat er één persoon is die dit allemaal voldoende weet?

[1:37:49] Nou, dan heb ik denk ik voldoende gezegd.

[1:37:53] Ik hoop dus mijn hoofdpunt te zijn.

[1:37:56] U moet kijken naar het beveiligingsbeleid.

[1:38:00] En er is ook een cultural change nodig.

[1:38:03] En ik zou u willen aanraden om te zoeken naar betere wijze om whole of government de analyse te doen

[1:38:15] die hoort bij de dreiging die op dit moment speelt.

[1:38:20] Ik moest gelijk denken aan de NOS gisteren die met het nieuws kwam dat de Japanse overheid

[1:38:26] nog met floppies werkt.

[1:38:36] Japan heeft nu zijn defensiebudget verdubbeld.

[1:38:40] Die hebben een zeer brede en nieuwe strategie ingericht waarin ze vooral multinationaal

[1:38:48] willen samenwerken. Alles wat ze gaan doen, gaan ze autonome systemen voor aankopen en

[1:38:54] die zijn dus bezig met een grote transformatie. Ze komen natuurlijk van ver, maar het is denk

[1:38:59] ik wel een zeer relevante partner die in een belangrijk gebied zit. Eens. Dan wil ik nu

[1:39:09] het woord geven aan de heer Smallegank van TNO. Dank u wel. Dank u wel ook voor de uitnodiging.

[1:39:16] Dank u wel voor de mogelijkheid om toe te lichten waar onze position paper over gaat.

[1:39:21] Eigenlijk, in de position paper gaat het over drie zaken die ik jullie mee wil geven.

[1:39:25] Dus mogen, kiezen, doen.

[1:39:28] En ik probeer toe te lichten waar dat vandaan komt.

[1:39:31] We hebben het vanochtend al uitgebreid...

[1:39:33] of in de eerdere sessie eigenlijk al uitgebreid gehad...

[1:39:35] over regelgeving die niet voldoende is.

[1:39:38] Ik wil eigenlijk nog een keertje ophameren dat dat van cruciaal belang is.

[1:39:44] Op het moment dat we niet data mogen verzamelen,

[1:39:47] op het moment dat je geen data mag gebruiken om je algoritmes te trainen,

[1:39:51] op het moment dat je niet de mensen mag trainen om te gaan met de algoritmes,

[1:39:54] heeft het geen zin.

[1:39:56] Dan heb je algoritmes die niet geschikt zijn voor de situatie

[1:39:58] en dan heb je mensen die niet geschikt zijn voor de missie

[1:40:00] en kan je daar eigenlijk niet zo goed mee stoppen.

[1:40:03] Dus mijn boodschap is, zorg alsjeblieft

[1:40:05] dat er op de een of andere manier een mogelijkheid komt

[1:40:09] om voor Defensie op een goede manier met data, met algoritmes om te gaan.

[1:40:14] Ook in vredestijd, ook in oefeningen en ook tijdens het experimenteren.

[1:40:20] Daar is hiervoor al heel veel over gezegd, dus ik ga er niet veel meer woorden aan vuil maken.

[1:40:25] Dus ik wou eigenlijk doorstappen dan op het tweede stuk.

[1:40:28] En dat heeft eigenlijk een aantal zaken te maken.

[1:40:31] Dat heeft te maken met de complexiteit die AI en dan met name machine learning heeft.

[1:40:36] als je dat wil inzetten voor defensie.

[1:40:40] Een van de prangende problemen die we daarbij hebben...

[1:40:43] is het feit dat we eigenlijk niet goed in staat zijn...

[1:40:46] om AI te verifiëren of te valideren.

[1:40:49] Te controleren of AI zich onder andere omstandigheden gedraagt...

[1:40:52] zoals we willen dat het zich gedraagt.

[1:40:54] Om te kijken of het model wat ik ooit ontwikkeld heb...

[1:40:57] nog steeds geschikt is voor de missie waar ik hem voor in wil zetten.

[1:41:00] Dat is lastig.

[1:41:02] En dat heeft alles te maken met de complexiteit van grote modellen...

[1:41:05] met heel veel nodes erin.

[1:41:11] Als je al die parameters wil kunnen controleren, dat is eigenlijk niet meer te doen.

[1:41:14] Dus je bent heel slecht in staat om te zeggen, hij doet het altijd goed.

[1:41:18] Je bent wel in staat om te zeggen, hij doet het waarschijnlijk in deze situatie goed.

[1:41:25] Tweede, wat speelt hierin is dat we op dit moment een opkomst zien van counter-AI, zoals we dat noemen.

[1:41:33] We zien op dit moment steeds meer mogelijkheden ontstaan om AI op allerlei manieren te manipuleren,

[1:41:40] te beïnvloeden, te verstoren, zelfs te misleiden en uiteindelijk ook onklaar te maken.

[1:41:47] Dat speelt al op het moment dat we keuzes gaan maken in trainingsdata, dat speelt al op het

[1:41:52] moment dat we keuzes gaan maken in welke modelarchitectuur we kiezen, dat speelt op het moment dat we

[1:41:56] het systeem gaan gebruiken en dat speelt op het moment dat we eventueel het systeem zouden

[1:42:00] verliezen.

[1:42:00] Op al die momenten kan een tegenstand ingrijpen op jouw systeem.

[1:42:05] En we hebben op dit moment eigenlijk onvoldoende middelen om te kunnen detecteren of er gemanipuleerd

[1:42:11] is met het systeem en of dat we aan de aanval zijn.

[1:42:15] We hebben onvoldoende middelen om zo'n systeem te kunnen beveiligen tegen dat soort aanvallen.

[1:42:21] Dat betekent dat we dus niet kunnen vertrouwen op modellen die we ergens vandaan trekken.

[1:42:29] We zien nog heel veel dat er een willekeurig model ergens vandaan getrokken wordt, omdat het beschikbaar is en dat het zo makkelijk is en dat gaan we doortrainen.

[1:42:37] Maar we hebben dus niet de mogelijkheid om in zo'n systeem te kijken of dat systeem veilig is.

[1:42:42] Of daar niet een backdoor in zit of dat er niet data poisoning heeft plaatsgevonden.

[1:42:46] We kennen allemaal de voorbeelden van plaatjes van Poesin, als je dan een paar pikseltjes verandert dan wordt het in een keer een hond.

[1:42:52] Als je in staat bent om de trainingsdata zo te manipuleren dat alle Russische tanks een

[1:42:57] paar klikseltjes veranderd zijn en ik zie dan een echte Russische tank, dan herken ik hem

[1:43:02] dus niet meer.

[1:43:03] Dat is het effect van data poisoning, dus manipulatie, counter AI op jouw AI-systeem.

[1:43:11] Dat betekent als je dat bij elkaar optelt en dan ook nog een keer bij zegt dat we eigenlijk

[1:43:14] als Europa of als Nederland niet de capaciteit hebben om alles te doen, dat je dus keuzes

[1:43:19] moet gaan maken van waar ga ik nou mijn centjes op inzetten, waar ga ik mijn schaarse capaciteit

[1:43:24] op inzetten en hoe ga ik zorgen dat ik voor die AI die er echt toe doet, voor die data

[1:43:29] waar de controle over wil hebben, voor die algoritmes waarvan ik eigenlijk grip wil houden

[1:43:34] dat het zich blijft gedragen zoals ik doe, dat ik zo'n eigen capaciteit moet ontwikkelen.

[1:43:37] Dat kan nationaal, dat kan internationaal, maar wel met vertrouwde partners en kies die

[1:43:42] partners vervuldig.

[1:43:44] Dat betekent ook dat je dus als je zo'n ontwikkeling wilt starten, dat je, het woord aanbesteningsregels

[1:43:54] is al een paar keer gevallen, dat je goed moet nadenken hoe je die keten gaat sluiten.

[1:43:59] We hebben prima regels om laag TRL-onderzoek te doen, we hebben prima regels om dingen aan

[1:44:03] te schaffen, maar er zit een grapend gat tussenin om van laag TRL-kennis, zoals dat bij universiteiten

[1:44:10] maar ook bij TNO ontwikkeld wordt, te komen tot inzetbare middelen die door de industrie of

[1:44:15] door de defensie zelf verder gebracht worden om uiteindelijk ingezet te worden.

[1:44:18] En we hebben allerlei fijne regels daarin gebracht om te zorgen dat partijen worden

[1:44:25] uitgesloten als ze in het onderzoek meegedaan hebben. We hebben regels die zorgen dat voorkennis

[1:44:30] verboden is waardoor je niet door mag in het vervolgtraject. En dat betekent dat je dus die

[1:44:35] van laag TRL naar hoog TRL niet kan sluiten.

[1:44:38] En daar zit met name de grote bottleneck.

[1:44:41] Meneer Tuijman had het in de sessie hiervoor al over versnellen.

[1:44:44] Daar zit het versnellingsprobleem.

[1:44:51] Dus van mogen we zorgen dat we de regels op plaats hebben

[1:44:56] naar kiezen waarvoor we dat willen, waar willen we nu goed in zijn.

[1:45:00] Dus keuzes maken voor AI die we voor strategische doeleinden willen gebruiken,

[1:45:05] die ons een strategisch voordeel geven,

[1:45:06] die voor vitale investeringen, want het is eigenlijk niet alleen voor Defensie,

[1:45:10] maar eigenlijk zou het breder kunnen trekken naar ook onze energievoorziening.

[1:45:14] AI, die ik voor dat soort systemen gebruik, moet je zelf onder controle houden

[1:45:17] en moet je er zelf aan zorgen dat je daarin investeert en dat je daar zelf ecosystemen voor opricht.

[1:45:24] We hebben dat besloten. Waar gaan we voor zitten?

[1:45:27] Is de volstap van hoe ga je dan uiteindelijk zorgen dat je zowel al die mooie ethisch-juridische kaders,

[1:45:34] allerlei zaken rond counter-AI, allerlei zaken rond explainability,

[1:45:39] transparantie, uitleg bij het noem, al die mooie keten erop.

[1:45:42] Uiteindelijk gaat samenbedenken om te komen tot uiteindelijk effectieve AI.

[1:45:45] Want uiteindelijk gaat het erom dat we systemen krijgen die het doen,

[1:45:48] die ons een voorsprong geven, die uiteindelijk zorgen dat we die slag gaan winnen.

[1:45:53] Dus het is altijd een balans tussen al die randvoorwaarden en effectiviteit.

[1:45:59] En soms moet misschien die balans een beetje naar de ene kant doorslaan.

[1:46:02] En soms moet die balans een beetje aan de andere kant door zijn.

[1:46:05] En daar ligt dus ook de rol voor de politiek om te zorgen dat je dus tijdens die ontwikkeling van AI

[1:46:09] niet alleen aan het begin je kaars meegeeft, maar ook op latere momenten mee blijft denken om te kijken

[1:46:15] wanneer kan die balans de ene kant of de andere kant opstaan.

[1:46:18] Dat kan je niet alleen maar bij de individuele militaire neerleggen of alleen maar bij de ingenieur neerleggen.

[1:46:23] En dat is dus een proces waarin zowel de techneuten, de militairen, beleidsmakers, juristen,

[1:46:30] misschien zelfs maatschappelijke organisaties, met elkaar die discussie aan moeten kunnen blijven gaan

[1:46:35] en continu moeten blijven monitoren, is dit wat we willen en zetten we het systeem op de goede manier in.

[1:46:46] Dus dit laatste, wat meneer De Chen hiervoor gaf eigenlijk ook al vooraan, die gaf net even een

[1:46:51] ander insteek vanuit iets andere perspectieven, maar eigenlijk is dat hetzelfde verhaal. Zorg dus

[1:46:56] dat je die continuïteit niet alleen op het begin, maar tot en met het einde voor elkaar hebt. En

[1:47:01] Dat is eigenlijk het einde van m'n toog, dus mogen, kiezen en verantwoord doen.

[1:47:06] Dank u wel.

[1:47:08] Dank u wel.

[1:47:09] Dan wil ik nu naar mijn collega's gaan en dan allereerst collega Erkens.

[1:47:13] Voorzitter, ik ga er vanuit dat er twee rondes met vragen komen.

[1:47:16] Alleen ik moet zelf m'n kwaf al weg.

[1:47:17] Misschien stelt u mij toe om twee vragen te bekijken.

[1:47:20] U bent de coulantheid zelver.

[1:47:22] Ongelooflijk.

[1:47:23] Mijn eerste vraag is aan de heer Swijs.

[1:47:25] En dank trouwens aan alle drie voor de informatieve toelichting over de position papers.

[1:47:29] Heel dadervol.

[1:47:30] De eerste vraag gaat over de MDO.

[1:47:33] Het is natuurlijk niet iets heel nieuws, u gaf het terecht aan in de Koude Oorlog was het er ook al.

[1:47:36] Misschien zelfs in de Eerste Wereldoorlog met rolling barrages en infanterie.

[1:47:40] Maar als ik u goed begrijp zijn er twee onderdelen van.

[1:47:43] Je hebt aan de ene kant de slagkracht in verschillende dimensies.

[1:47:45] En het tweede is hoe brengen we dat bij elkaar en hoe werkt het eigenlijk synchroon samen?

[1:47:48] Als u dan kijkt naar Nederland, waar ziet u dan eigenlijk de grootste kwetsbaarheden?

[1:47:53] In de opbouw van die capaciteiten of in het bij elkaar brengen daarvan?

[1:47:56] Mijn tweede vraag is voor de heer Smalle-Gans.

[1:48:01] Als u kijkt naar de ontwikkeling van het gebied van Artificial Intelligence,

[1:48:05] dat gaat natuurlijk ontzettend snel.

[1:48:07] Dat zijn enorme systemen waar echt nu tientallen miljarden ingestoken worden,

[1:48:10] door grotendeels Amerikaanse en deels Chinese bedrijven helaas.

[1:48:14] Hoe kan Defensie wel deze toepassingen gaan gebruiken in de toekomst,

[1:48:18] aangezien de meeste kennis en de beste systemen

[1:48:20] in de private sector gebouwd worden op dit moment?

[1:48:24] Dank u wel, collega Tuijman.

[1:48:27] Van het tuinman van de VVD deze keer, ja, voorzitter.

[1:48:32] Nee, goed. Dank jullie allemaal wel.

[1:48:34] Ik ben ook ietsje eerder weg zo meteen, dus ik wil ook graag twee vragen stellen, voorzitter.

[1:48:40] En de eerste vraag is eigenlijk aan de heer Swijs.

[1:48:44] We hebben in Nederland, überhaupt in de westerse wereld,

[1:48:46] hebben we heel erg de neiging om naar onszelf te kijken en de krijgsmacht te bouwen die wij willen.

[1:48:50] Op basis van onze morele, conceptuele ideeën, hoe onze samenleving om elkaar steekt.

[1:48:56] en we doen eigenlijk altijd daar de vijand of de tegenstander of de opponent, hoe je het noemen wilt,

[1:49:00] die laten we eigenlijk uit de vergelijking, zeg maar.

[1:49:04] Nou, u bent zo'n specialist op het gebied van afschrikking en dan zeker ook als het gaat over multidomain.

[1:49:09] Dus ik ben wel benieuwd wat u nu ziet waar we mee bezig zijn in NAVO en ook in Nederland op het gebied van die afschrikking.

[1:49:16] Hoe krijgen we dat perspectief van die tegenstander eigenlijk ingewoven?

[1:49:21] En de tweede gaat naar de heer Smallegang en het gaat echt over leren.

[1:49:25] Ik ben er sterk van te denken dat we volgende week nog een commissiedebat hebben.

[1:49:30] Ik ben er sterk van te denken dat we daar iets kronkeets in gaan doen op het gebied van leren.

[1:49:34] Ik heb een tijdje terug een motie ingediend over leren van die Oekraïne-oorlog.

[1:49:39] De heer Zwijs tipte daar ook al aan.

[1:49:44] De reactie van het kabinet was mijn mening daarin teleurstellend.

[1:49:49] De vraag is wat we nou precies nodig hebben.

[1:49:52] Dus wat moeten we boren dat we inderdaad, zeker op het gebied van Artificial Intelligence,

[1:49:59] maar ook wat mevrouw Groeneveld het over heeft, dus besluitvormingsondersteuning,

[1:50:04] dat we inderdaad in kortere loops sneller kunnen leren.

[1:50:08] En dan gaat het mij ook even over de harde en de digitale infrastructuur daarvoor.

[1:50:14] Dank u wel. Collega Nootkamp.

[1:50:17] Dank. Mijn vraag is terecht aan de heer Smallegangen.

[1:50:21] Het gaat over de gevoeligheden rondom AI, dus de ethische, juridische gevoeligheden, counter-AI,

[1:50:28] hoe moeilijk dat allemaal is, en ook dat je die gevoeligheden zoveel mogelijk wilt uitsluiten

[1:50:33] in je eigen keten.

[1:50:35] Dus ik zei ook iets over dat je dan zelf dat ecosysteem in de hand zou moeten hebben, zelf

[1:50:38] zaken organiseren.

[1:50:41] Dat maakt dan mijn inziens ook samenwerking met marktpartijen ook best wel een opgave.

[1:50:46] Maar aan de andere kant, ook wat mijn collega Erken zei, is dat ook nu het meeste geld

[1:50:50] geïnvesteerd wordt in AI door private partijen. Dus in die zin heb je ze nodig

[1:50:55] omdat we zelf daarin achterlopen. Hoe ziet u risico's in

[1:51:02] samenwerking met marktpartijen op dit gebied en hoe ziet volgens u dan een

[1:51:06] ideale of goede samenwerking tussen defensie en marktpartijen, hoe ziet u dat

[1:51:12] voor zich? Waarbij we dus niet achterlopen op innovatie, maar waarin we die

[1:51:17] gevoeligheid in het gebied van juridische en ethische kwesties zoveel mogelijk elimineren.

[1:51:23] Dank u wel. Dan stel ik voor dat ik gewoon begin bij de heer Swijs en dan het rijtje afloop zoals we

[1:51:30] het net ook hebben gedaan. Mooi. Dank jullie wel voor twee boeiende vragen specifiek aan mijn

[1:51:36] adresgericht. Slagkracht versus samenbrengen van de slagkracht. Waar is de grootste uitdaging

[1:51:45] voor Nederland. En er is natuurlijk ook voor kleine, middel, grote mogelijkheden altijd

[1:51:51] een grote uitdaging in het goed samenbrengen van, maar laat me eens een keer niet een

[1:51:55] enerzijds-anderzijds antwoord geven en gewoon zeggen het gaat om slagkracht hier. En slagkracht

[1:52:00] zowel in traditionele zin, in de zin dat we na dertig jaar roofbouw op de defensieorganisatie

[1:52:05] niet meer hele grote aantallen hebben, een force readiness die behoorlijk laag is, maar

[1:52:10] ook als je daar denkt over wat wij zien aan het oostenfront, als je denkt aan de oorlog

[1:52:13] van attritie is het voortzettingsvermogen, dus niet alleen twee, drie dagen vechten of

[1:52:18] twee, drie weken, twee, drie maanden, twee, drie jaar, et cetera, et cetera, ook heel

[1:52:23] laag.

[1:52:24] En dan gaat het ook om een veel bredere vraag die te maken heeft met de defensie-industriële

[1:52:28] basis die eronder ligt waar ik nu niet aan wil raken.

[1:52:32] Maar ik wil u nog een ander idee meegeven en dat is de volgende.

[1:52:36] Kijk, militaire organisaties prepareren altijd voor de volgende oorlog, maar die vechten

[1:52:41] ze niet.

[1:52:41] En het is alleen tijdens het vechten in die oorlog dat er een evolutionaire druk ontstaat

[1:52:47] waarin de survival of the fittest, het overleven van de sterkste is, maar de sterkste niet

[1:52:51] gedefinieerd als alleen de sterkste, maar juist diegene met het grootste adaptatievermogen.

[1:52:57] En daar wilde ik een bruggetje maken naar het thema van vandaag.

[1:53:01] Als we kijken in Oekraïne dan zie je dat beide kanten hebben best wel aanzienlijke elektromagnetische

[1:53:10] oorlogsvoeringcapaciteiten.

[1:53:11] Waardoor het best moeilijk is, oftewel heel moeilijk, om overwicht in de lucht te krijgen,

[1:53:17] maar waardoor het ook moeilijk is om, zelfs als je met drones opereert,

[1:53:21] om naar het front toe in je target uit te zin zijn.

[1:53:26] Wat is het gevolg?

[1:53:27] Het gevolg is dat we, en daar wordt weinig over gesproken,

[1:53:30] maar het gevolg is dat er meer gebruik gaat worden van algoritmes,

[1:53:35] namelijk het preprogrammeren van een doelwit,

[1:53:37] waarmee je dus eigenlijk niet in direct contact met je drone hoeft te hebben,

[1:53:40] waar de dronen naartoe gaan. Sterker nog, in Oekraïne zijn ze nu aan het bouwen aan een army of drones waar het

[1:53:45] gaat om niet tientallen, niet honderden, maar niet duizenden, maar miljoenen drones die ze straks kunnen

[1:53:51] inzetten. Dus als je nadenkt over slagkrachten is dat dus niet alleen grote traditionele twintigste

[1:53:57] eeuwse staal machines, dat gaat ook over juist deze voluminous and disposable in het Engels,

[1:54:03] Het zijn talrijke, maar ook weggooibare capaciteiten waar we aan moeten denken.

[1:54:10] Eén.

[1:54:12] Gijs Tijman, de vraag over afschrikking.

[1:54:16] Ja, dat is natuurlijk...

[1:54:19] Waarom prepareren we ons op oorlog voor?

[1:54:23] Zodat we niet hoeven te vechten.

[1:54:24] Zodat we de strategische calculus van onze tegenstander zodanig beïnvloeden...

[1:54:27] dat hij wel twee keer nadenkt voordat hij ons aanvalt.

[1:54:30] Dat heeft twee componenten. De ene component is...

[1:54:33] We straffen hem als hij het doet, dus hij is bang voor de straf.

[1:54:36] De tweede is, dat noem je deny, we ontzeggen hem überhaupt de kans om het te doen,

[1:54:42] zodat hij als hij naar het front gaat, hij kijkt, het gaat niet lukken, ik ga terug.

[1:54:46] Nou, Europa, de NAVO, maar ook Europees NAVO staat voor een hele grote opgave,

[1:54:51] want confessioneel zijn we zeker zonder de VS nog langer na niet in staat om een langdurig conflict voor te zetten.

[1:55:00] En de verkiezingen gaan toch echt in november plaatsvinden.

[1:55:04] En de prospecten voor Trump om die verkiezing daadwerkelijk te winnen en een naam voor de

[1:55:10] bus te gooien zijn daar.

[1:55:12] Ik bedoel, dat is niet meer een fantasie, dat is een reële mogelijkheid.

[1:55:17] Dus om die strategische calculus van de tegenstander te beïnvloeden, concreet investeren in confessionele

[1:55:23] capaciteiten, investeren in denial capaciteiten, nadenken, daar hebben jullie laatst in dit

[1:55:29] over gesproken over hoe een Europese nucleair antwoord eruit zou kunnen zien

[1:55:36] in het kader van afschikking door punishment en tegelijkertijd voordat we

[1:55:41] nu allemaal alleen focussen op op nucleair en confessioneel ook weten dat

[1:55:45] als die voordeur goed dicht is dat je tegenstander via de achterdeur komt en

[1:55:49] dus dit bredere hybride verhaal en volgens mij had u ook een vraag over hoe

[1:55:52] dat zat met maatschappelijke weerbaarheid zowel fysieke infrastructuur als ook

[1:55:56] Maar ook onze sociale weerbaarheid is daarbij ook superbelangrijk.

[1:56:02] Dank u wel.

[1:56:02] Ja, dank u wel voor de interessante vragen.

[1:56:05] Niet direct aan mij, maar als u mij toestaat, ga ik toch even op de in.

[1:56:09] De vraag van de heer Erkens met betrekking tot...

[1:56:11] ...moeten we ons nu concentreren op capaciteit...

[1:56:14] ...of moeten we nu concentreren op het samenbrengen van wat we hebben?

[1:56:17] Ik denk dat we vooral ons moeten concentreren op hoe ons toekomstig optreden eruitziet.

[1:56:25] Niet op het multipliceren van wat we nu hebben, maar vooral heel goed kijken hoe je toekomstig

[1:56:33] omgeving waarin je optreedt eruit ziet en dus ook wat je daar dan voor nodig hebt.

[1:56:38] Het denken wat we nu hebben is we kopen iets en dan gaan we daarna denken hoe we dat het

[1:56:42] beste kunnen gebruiken.

[1:56:44] Dat kan niet.

[1:56:45] Die tijd hebben we niet en dan kunnen we ons echt niet veroorloven.

[1:56:48] Dus we moeten in onze glazen bol kijken.

[1:56:49] En daarbij helpt NATO.

[1:56:53] NATO is op het niveau van ECT bezig om Future Operating Environment en de Strategic Foresight Analysis te doen.

[1:57:02] En daarin staan veel goede dingen waar Nederland in de krijgsmachtontwikkeling gebruik van kan maken en zou moeten maken.

[1:57:12] En ook maakt, overigens.

[1:57:13] Dan de vraag van de heer Noordkamp met betrekking tot de samenwerking

[1:57:19] met marktpartijen en of we risico's zien in die samenwerking.

[1:57:24] Ik zou hier nog graag aan u willen meegeven dat we in de discussie veel

[1:57:28] nadruk ligt op de bekende Defence Prime Industry.

[1:57:33] Dat zijn de partijen waarbij u de hardware van vandaag koopt.

[1:57:37] Maar de industrie waarvan wij volledig afhankelijk zijn en waar de innovatie plaatsvindt, zijn

[1:57:45] natuurlijk ook grote global partijen zoals Microsoft of SpaceX en daar geldt nu het volgende

[1:57:56] dat we samen zullen moeten werken met andere landen omdat wij vertrouwen moeten gaan krijgen

[1:58:04] dat deze partijen ons ook gaan ondersteunen,

[1:58:08] want we zijn ervan afhankelijk in een geval van oorlog,

[1:58:14] en dat dat niet afhankelijk is van de richting van de Verenigde Staten.

[1:58:18] Dus u moet daarbij ook zien dat dit soort grote internationale partijen

[1:58:24] eigenlijk een entiteit op zichzelf zijn.

[1:58:27] Dus die zou u naast overheden als een aparte entiteit moeten zien.

[1:58:32] We zullen constructen moeten vinden, en dat gaan we als Nederland niet alleen doen, maar

[1:58:39] daar zou de Europese Unie wellicht een goede drager voor kunnen zijn, waarin we vertrouwen

[1:58:47] gaan opbouwen in deze partijen en ook de samenwerking zo inrichten dat we dat vertrouwen kunnen

[1:58:55] hebben, dat ze de stekker er niet uit gaan trekken omdat er nationaal in de politiek

[1:59:01] iets verandert.

[1:59:01] En dat is erg belangrijk.

[1:59:04] En ik denk dat we wat beter naar het industrieel complex moeten kijken, wat ingewikkelder is

[1:59:10] en zeker niet alleen maar uit de oude defence primes bestaat.

[1:59:15] En die defence primes, dat is niet de plek waar nu de innovatie plaatsvindt.

[1:59:19] Dus dat betekent dat als u hun gaat funden, dan moet u niet verwachten dat zij die innovatie

[1:59:26] snel genoeg kunnen doen.

[1:59:27] Dus er moet ook goed nagedacht worden welke partij u leidend laat zijn in zo'n traject.

[1:59:35] Dat zou ik wel meenemen.

[1:59:37] Dank u wel.

[1:59:38] Toevallig heeft de commissie buiten onze zaken vanmorgen een gesprek gehad met de AIV.

[1:59:42] En een van de punten die te sprake ging over non-staatlijke actoren,

[1:59:46] over Helmas en Heersbolla, maar dat kan natuurlijk ook een Elon Musk zijn,

[1:59:49] die natuurlijk ook een rol speelt op het internationale.

[1:59:55] Ik zou graag het woord willen geven aan Wicht Smallengang.

[1:59:58] Dank u wel voor de vragen.

[2:00:02] Hoe kunnen we AI sneller gebruiken?

[2:00:06] Hoe kunnen we het sneller gebruiken van systemen door de externe leveranciers?

[2:00:12] Het sluit een beetje aan op de vraag van de mevrouw van Noordkamp.

[2:00:18] Daar zitten voor mij nate aspecten aan.

[2:00:21] Een deel is wat men net aangeeft.

[2:00:24] en sommige van die partijen zijn inderdaad actoren op zichzelf.

[2:00:29] Maar tegelijkertijd denk ik ook dat we niet hoeven te onderschatten wat we wel kunnen.

[2:00:34] Ik geef als voorbeeld, we zijn nu bezig in Nederland om onze eigen GPT-NL te ontwikkelen,

[2:00:40] ons eigen large language model te ontwikkelen.

[2:00:42] Dus we zijn in staat ook om dat soort dingen te kopiëren.

[2:00:46] En dan met transparante data, met een transparant architectuur.

[2:00:52] Dus we kunnen dit soort dingen wel degelijk.

[2:00:53] Dus ja, de grote ontwikkeling en de grote snelheid komt natuurlijk van dat soort partijen af.

[2:00:59] Maar we zijn heel goed in staat om daarin mee te liften en daarop te anticiperen en te zorgen

[2:01:03] dat we dat soort capaciteit ook in Europa van elkaar gaan krijgen.

[2:01:07] Dus dat zou ik ten eerste willen meegeven.

[2:01:11] Het tweede, hoe zou zo'n samenwerkingsverband eruit kunnen zien?

[2:01:14] Ik denk dat dat en de keuze voor welke partijen daarvoor wel of niet meeneemt,

[2:01:19] Dat hangt heel zwaar af van het risicoprofiel dat je daaraan hangt.

[2:01:27] Is het een systeem waar je vitale infrastructuur mee moet beschermen?

[2:01:33] Is het een systeem dat jou een derde mate cruciaal voordeel geeft op het slagveld...

[2:01:37] dat je dat niet wilt delen met anderen?

[2:01:39] Dan kies je andere partners dan als je zegt...

[2:01:40] nou, ik heb een systeem nodig dat ik met mijn Europese partners...

[2:01:44] met mijn NATO-partners gezamenlijk wil gaan inzetten.

[2:01:46] Dus het hangt heel zwaar af van wat voor keuzes je maakt...

[2:01:51] en wat voor risico's er uiteindelijk van afhangen als het mis mocht gaan.

[2:01:55] Dus dat is het kader waar je naar moet kijken.

[2:02:00] Wat ik nog meezo wil geven is...

[2:02:04] we zien nu in Europa dat de Europese Defensie-initiatief...

[2:02:06] dat is meer een Europese Defensie-industrie-initiatief...

[2:02:09] om te kijken of we meer dit soort dingen gezamenlijk op kunnen lopen.

[2:02:12] Ik zou me heel goed kunnen voorstellen dat we ook op dit soort onderwerpen...

[2:02:15] Europees samenwerking zoeken en dus Europees ook zorgen dat je die capaciteit in de wereld brengt om dit soort capaciteiten te gaan ontwikkelen.

[2:02:23] Laatste punt en dat heeft veel te maken met het kunnen vertrouwen op zaken die dan uiteindelijk door DERN geleverd worden.

[2:02:31] Dat heeft te maken met verificatie en validatie.

[2:02:34] Is een ingewikkeld proces, is een lastig proces, maar niet onmogelijk.

[2:02:37] Er zijn steeds meer mogelijkheden om het te kunnen doen.

[2:02:40] Je ziet dat voor simpele vormen van AI dat we dat al wel kunnen.

[2:02:42] We zien dat we best in staat zijn om analitie te doen of in hoeveel procent van de gevallen bijvoorbeeld een large bangers model

[2:02:50] het wel of niet bij het rechte eind gaat hebben.

[2:02:55] Dat soort processen inregelen en zorgen dat je een organisatie hebt die dat soort processen kan doen,

[2:03:01] namens de overheid of onderdeel van de overheid,

[2:03:04] is denk ik wezenlijk om keuzes te kunnen maken van welke systemen ik wel of niet kan gaan gebruiken.

[2:03:10] En dat verkleint uiteindelijk de ruimte van dingen die je zelf wil doen.

[2:03:14] Als ik beter in staat ben om te beoordelen of anderen het goed doen,

[2:03:17] hoef ik zelfs minder te doen.

[2:03:18] Maar dat zijn wel twee processen die hand in hand gaan.

[2:03:20] Want ook je eigen systeem moet je erbij even kunnen controleren.

[2:03:23] Het inrichten van een goed verificatie-validatieproces en organisatie

[2:03:27] is denk ik een hele wezenlijke stap die je nationaal mag nemen,

[2:03:31] maar die je ook in het Europese verband kan nemen.

[2:03:35] Dank u wel.

[2:03:39] Ja, collega Erkers en Tuijman zoals we al aangeven moesten helaas eerder weg.

[2:03:44] Het is een beetje een chaotische dag.

[2:03:46] ...komt mede door een debat met een formatie enzovoort, dus dat gooit de hele agenda in de war.

[2:03:51] Ik wou nog iets toevoegen.

[2:03:53] Sorry, neem ik niet vaarlijk.

[2:03:54] Eén ding, want er werd nog even op Oekraïne gerefereerd.

[2:03:57] Ik heb het voorrecht, omdat ik vanuit mijn natuurrol in de Science & Technology organisatie...

[2:04:01] ...ook regelmatig met vertegenwoordigers van Oekraïne mag spreken.

[2:04:04] Eén van de dingen die zij ons meegaven daarin is...

[2:04:08] ...zorg dat je nu je dingen op orde hebt.

[2:04:10] Zorg dat je nu je regelgeving op orde hebt, dat je je processen en procedures op orde hebt.

[2:04:15] Zodat als de shit hits het vent, als de oorlog daar is, je makkelijker de teugels kan laten vieren.

[2:04:21] Want dan is het te laat om nog allerlei dingen in te regelen.

[2:04:23] Dus als je nu de dingen goed regelt, dan kan je ook makkelijker dingen loslaten als dat nodig moet zijn.

[2:04:29] Dus dat wil ik nog wel meegeven.

[2:04:32] Helder, een goede toevoeging lijkt mij. Dank.

[2:04:36] Collega Noordkamp.

[2:04:37] Ik heb twee vragen, maar misschien kan het ook in één adem.

[2:04:42] En die zijn gericht aan mevrouw Groeneveld.

[2:04:45] Het ging over de samenwerking in de NAVO en de Nederlandse bijdrage daaraan.

[2:04:52] En dan vroeg ik me dus af, er zijn natuurlijk ook landen binnen de NAVO-bondgenoten die

[2:04:59] misschien iets minder ontwikkeld zijn op dit vlak.

[2:05:02] En of er dan sprake is van meerdere snelheden en hoe wordt dat gemanaged en welke uitdagingen

[2:05:10] brengt dat met zich mee bij de afstemming.

[2:05:12] En een vraag die misschien dan iets breder is, want u had het ook over dat er ook cultuurverandering nodig is binnen Defensie, misschien ook bij politiek samenleving, maar laten we het even met de politiek en met name gericht op Defensie houden.

[2:05:26] Zou u daar al een voorzichtige toekomstverwachting van kunnen geven waar u ziet waar die cultuurverandering het meest nodig is en hoe die daar volgens u uit zou moeten zien?

[2:05:38] Helder. Koronel Groeneveld.

[2:05:41] Ja, dank u wel.

[2:05:43] Ja, er zijn uiteraard grote verschillen binnen NATO.

[2:05:47] En daarom is het nu ook zo belangrijk om heel goed te kijken welke landen voorlopen.

[2:05:54] En ik zeg altijd, goed gejat is beter dan zelf verzonnen.

[2:05:59] En daarbij kunnen we dus ook enorm van elkaar leren.

[2:06:03] We kunnen dus de best practices halen.

[2:06:06] Nou, het is duidelijk dat de Verenigde Staten op sommige vlakken voorlopen.

[2:06:12] Maar de Verenigde Staten zijn ook in heel veel gevallen

[2:06:16] een niet vergelijkbare entiteit

[2:06:19] en hebben ook grote uitdagingen binnen hun eigen geleden,

[2:06:25] omdat zij natuurlijk ook toch heel veel belangen spelen,

[2:06:29] industriële belangen en contracten,

[2:06:31] die bijvoorbeeld bij de landmacht zijn afgesloten,

[2:06:34] of bij de marine zijn afgesloten en die ook niet zomaar aan elkaar te koppelen zijn.

[2:06:41] Maar als we kijken naar de aspecten van multidomein operations,

[2:06:46] dan zie ik een paar voorlopers die behoorlijk ver zijn in de uitwerking van dit concept.

[2:06:53] Ik denk dat Nederland ook goed op weg is om dit concept uit te werken.

[2:07:00] Dat vraagt wel een behoorlijke mindset change in de Nederlandse krijgsmacht.

[2:07:11] En daar zie ik een van de uitdagingen, en die zit vooral in de groupthink.

[2:07:19] En wat ik merk is, in elke bubbel waar ik ben, zit een enorme hoeveelheid groupthink.

[2:07:26] En ja, dat betekent dat we met vrij groot gemak eigenlijk elkaar versterken in ons denken.

[2:07:38] En dat is een groot risico als we geconfronteerd worden met de werkelijkheid.

[2:07:43] En ik denk dat AI ook mogelijkheden biedt om die bias er enigszins uit te gaan halen.

[2:07:53] om ons meer, om ons te helpen om die bias te verminderen.

[2:08:00] Maar ik zou het u wel mee willen geven,

[2:08:02] want als u kijkt naar de diversiteit van groepen...

[2:08:07] Ik kom net uit Dresden, daar zaten we bij elkaar met 600 experts van NATO.

[2:08:15] We gingen allemaal over dit, over de digital transformation,

[2:08:19] over AI en over multidomain operations.

[2:08:23] En als ik in de zaal keek, dan was de zaal, en er werd ook even een kleine ding gedaan,

[2:08:30] dat bestond uit 50 tot 59-jarige mannen in blauwe pakken.

[2:08:36] Met allemaal dezelfde Defensie-achtergrond.

[2:08:40] En ik zeg u echt, ik ben daar ook een uitzondering.

[2:08:43] Maar het gaat niet om mannen en vrouwen.

[2:08:45] maar het gaat erom dat in dit soort omgevingen een broeping een groot probleem is.

[2:08:51] En daarbij praten we elkaar, ook vooral op het gebied van technologie,

[2:08:56] moet ik zeggen dat er weinig kennis is.

[2:08:59] En dat komt omdat, zeg maar, de technische achtergrond binnen Defensie

[2:09:04] niet de hoge rangen gaat bekleden.

[2:09:08] En dat betekent dat u, als je de snelheid waarmee die technologie nu verandert...

[2:09:13] Er zijn onderzoeken in de UK en die geven ook duidelijk aan dat die affiniteit met technologie

[2:09:20] wel heel belangrijk is om nu mee te kunnen denken daarin.

[2:09:25] Daarbij is het zo dat je dan natuurlijk niet aan ons moet vragen hoe we denken dat die technologie

[2:09:32] zich over tien jaar ontwikkeld heeft.

[2:09:36] En ik denk dat duidelijk is dat tien jaar geleden we niet wisten dat die smartphone bestond.

[2:09:41] De snelheid waarmee dat gaat, en wat dat dan van ons vraagt, is dat we een exponentiëel aanpassend vermogen hebben.

[2:09:50] We moeten vooral investeren in ons aanpassend vermogen hierop, in plaats van een fix denken van oké, we denken één keer goed na en dan hebben we het bedacht en dan is het zo.

[2:10:03] Maar het gaat erover dat we een organisatie inrichten die in staat is een groot aanpassend vermogen te hebben.

[2:10:09] en dat aanpassend vermogen zit, dus ook in het nadenken

[2:10:12] wat de achtergrond zou moeten zijn van de mensen die met dat aanpassend vermogen bezig zijn.

[2:10:18] En dat vraagt dat we natuurlijk de mensen die er nu zijn,

[2:10:23] dat we kijken hoe kunnen we die to speed krijgen

[2:10:27] en hoe gaan we onze nieuwe officieren opleiden.

[2:10:31] Worden dat mdo-officieren, worden dat...

[2:10:34] En dat vraagt een behoorlijke cultural change.

[2:10:38] Maar gelukkig zijn er een aantal landen binnen de NAVO die hier al diep en breed hebben over nagedacht

[2:10:43] en waar we lessen van kunnen leren.

[2:10:47] Dank u wel.

[2:10:51] Dank u wel.

[2:10:52] Heel kort, want over twee minuten gooit de techniek ons eruit.

[2:10:57] Eén minuut dan.

[2:10:58] Mag ik dan Cetrium Centio toevoegen?

[2:11:00] Cetrium Centio, overigens ben ik van mening,

[2:11:02] precies ingaande op uw vraag,

[2:11:04] dat Nederland daar juist uitgelezen positie in kan innemen,

[2:11:08] omdat wij vrij klein zijn,

[2:11:10] maar niet te klein. We zijn technologisch echt ontwikkeld en we kunnen juist een voortrekkersrol

[2:11:17] spelen op het ontwikkelen van MDO-gedachtegoed, maar ook nadenken over hoe je dat binnen een

[2:11:23] organisatie vormgeeft. En vandaar ook mijn pleidooi eerder om te kijken wat kunnen we nou

[2:11:29] leren uit contemporaine conflicten, hoe wordt dat toegepast voordat je heel groot alles gaat opzetten,

[2:11:34] hoe kunnen we dat zelf ontwikkelen en dan kunnen we met bondgenoten, ook die misschien wat minder

[2:11:38] vooruitstrevend zijn binnen de NAVO, juist proberen het debat naar voren te

[2:11:43] brengen, die ontwikkeling van MDO te pushen. Dank u wel.

[2:11:47] Dat was een hele mooie nabrander. Ik zie nog een kleine toevoeging.

[2:11:51] Een paar kleine toevoegingen. Het eerste gaat over hoe neem je de tragere landen mee.

[2:11:57] Als je kijkt hoe dat met het FMN geregeld wordt, verder in het mission networking,

[2:12:01] zie je dat we in spirals werken en je ziet dat je in die spirals landen hebt die voorop lopen.

[2:12:06] Nederland is een land daarin die zich daarvoor uitgesproken heeft.

[2:12:09] En je ziet landen die wat trager zijn daarin.

[2:12:13] En FMN is juist zo ingeregeld dat ze dus wel in die sparrings doorpakken.

[2:12:17] Dat de landen die voorop lopen daar initiërend in zijn.

[2:12:19] Zorgen dat die nieuwe capaciteit tot omlaag te komen.

[2:12:21] En dat de landen die wat minder snel kunnen volgen, daarin meegenomen kunnen worden.

[2:12:24] Dus juist in NATO zie je dat ze daar oog voor hebben.

[2:12:28] Het gaat misschien minder snel dan als je met de snelheid van de snelste zou gaan.

[2:12:33] Maar het gaat wel snel genoeg om te zorgen dat je ook de tragere landen mee kan nemen.

[2:12:37] Het tweede dingetje in de groupthink, een tijdje terug zat ik ook in een groot NATO-overleg en een van de dingen ging daar ook weer over AI.

[2:12:46] En daar was met name het beeld dat AI de golden bullet is voor alles.

[2:12:50] Die illusie wil ik vooral ook wegnemen.

[2:12:52] Ook in het keuzesmaken wat ik net over had.

[2:12:54] Het keuzesmaken gaat dus niet alleen maar over de strategische keuze, maar ook kies ook van waar heeft het meerwaarde.

[2:12:58] Want heel vaak is gewoon de traditionele regeltechniek of een ander algoritme net zo goed als AI, of misschien wel beter.

[2:13:06] en daarmee sneller berechtschikbaar en wellicht ook met minder risico's.

[2:13:13] Die toevoegen hadden we inderdaad ook niet willen missen.

[2:13:16] Nogmaals dank voor jullie komst en voor jullie inbreng.

[2:13:19] En dank aan de collega, collega nu in dit geval,

[2:13:22] voor de vragen en aan de toeschouwers voor de moeite nemen om hier naar Den Haag te komen.

[2:13:27] En in ieder geval hele nuttige input die wij ook weer kunnen gebruiken

[2:13:31] in de debatten die wij hier ook op korte termijn over gaan hebben.

[2:13:34] Dus nogmaals dank.