Faculteit der Rechtsgeleerdheid
7 april 2026
‘Een belangrijke trend van het afgelopen decennium is de ontwikkeling van computersystemen die objecten kunnen identificeren. Algoritmen worden gebruikt om militaire complexen, tanks en oorlogsschepen te identificeren, maar ook scholen en ziekenhuizen. Een ander, nog problematischer voorbeeld is het gebruik van AI om het gedrag van individuen en hun relaties te voorspellen op basis van informatie uit bijvoorbeeld sociale media en afgeluisterde gesprekken. AI wordt nu zelfs gebruikt voor het ontwikkelen van aanvalstrategieën. Hoewel dit allemaal indrukwekkend klinkt, zijn deze systemen nog lang niet zo geavanceerd, maar de ambities zijn dat wel.’
‘Ik denk het wel. Sommige legers hechten veel belang aan snelheid en zien daardoor de tekortkomingen van AI over het hoofd. Dit wordt aangewakkerd door de hype die particuliere bedrijven creëren, waardoor te hoge verwachtingen ontstaan over wat de technologie kan. Momenteel vertrouwt het leger op AI om zijn tegenstanders te slim af te zijn. Daarbij verliezen legers het belang van nauwkeurigheid te veel uit het oog – wat tot meer schade bij burgers kan leiden. Bovendien worden veel AI-toepassingen gebruikt voordat ze goed zijn getest of worden ze ingezet voor taken waar ze niet specifiek voor zijn ontworpen.’
Deze systemen zijn niet geavanceerd, de ambities wel
‘Ik wil geen algemene uitspraken doen over of AI goed of slecht is, want dat hangt af van hoe het is ontworpen en hoe het wordt gebruikt. Legers vertrouwen op voorspellende systemen om doelwitoperaties uit te voeren. We accepteren steeds vaker systemen die zeer onbetrouwbaar zijn in situaties die gaan over leven en dood. Burgers lopen een groter risico als machines hun doelen verkeerd identificeren. Mensen maken natuurlijk ook fouten. Maar AI kan dat op veel grotere schaal doen, omdat het doelen kan genereren met een snelheid die we nog nooit eerder hebben gezien. Een ander probleem is dat het, vooral in oorlogssituaties, tijd kost om erachter te komen of op AI gebaseerde systemen fouten maken.’
‘Een van de grootste uitdagingen waar we nu voor staan, is begrijpen wanneer AI faalt. Als AI bijvoorbeeld doelen niet goed identificeert als het regent, moeten we dat weten. We willen dat mensen het systeem kunnen overrulen wanneer het faalt, maar dat blijkt erg lastig. Mensen worden sterk beïnvloed door AI en het is een uitdaging om te zorgen dat ze precies op het juiste moment kunnen ingrijpen. Vooral omdat dit afhangt van veel contextuele en individuele factoren.’
‘Veel regelgeving gaat over het nemen van voorzorgsmaatregelen waar mogelijk. Maar als je op hoge snelheid opereert, heb je in de praktijk geen tijd om extra voorzorgsmaatregelen te nemen. Een ander kenmerk van AI is de voortdurende iteratie. Ik noem dit “tinkering”. Dit betekent dat de interface, de data en de modellen voortdurend worden bijgewerkt. Ingenieurs werken samen met commandanten om ervoor te zorgen dat het systeem voldoet aan de behoeften van het leger. Tinkering is noodzakelijk en tegelijkertijd problematisch omdat het meer onzekerheid creëert. Bijgewerkte AI-systemen kunnen meestal niet adequaat worden getest. En elke kleine wijziging in een stukje code kan grote gevolgen hebben. Deze voortdurende verandering in de prestaties van AI en de onzekerheid die dit met zich meebrengt, zijn vraagstukken waar de wet geen eenvoudige antwoorden op heeft.’
Klaudia Klonowska verdedigde op 18 maart haar proefschrift getiteld Techno-Legal Tinkering in War: AI Decision-Support Systems and International Humanitarian Law. Ze voerde haar onderzoek uit aan het Asser Instituut en de Faculteit der Rechtsgeleerdheid en zet haar onderzoek momenteel voort als postdoctoraal onderzoeker bij Sciences Po Paris.
‘Het internationaal humanitair recht is van toepassing op staten, niet op bedrijven. Bedrijven zijn dus niet direct verplicht om de beginselen van het internationaal humanitair recht toe te passen of in acht te nemen. Tegelijkertijd hebben hun keuzes bij het ontwerpen van AI-technologieën grote gevolgen voor het vermogen van individuen die de systemen gebruiken om zich aan de wet te houden. Het is van groot belang om te weten voor welk doel technologie is ontworpen en welke bedrijfswaarden daaraan ten grondslag liggen. Er is momenteel een debat gaande tussen techbedrijf Anthropic en het Pentagon over het gebruik van het model Claude Code bij militaire operaties. Dat laat goed zien hoeveel invloed bedrijven kunnen uitoefenen op de militaire praktijk. Het laat ook zien dat er bij AI-bedrijven onduidelijkheid is over hoe hun systemen in de praktijk worden gebruikt. Staten zijn tot nu toe nog niet erg duidelijk over hoe ze kunnen waarborgen dat de technologie die ze bij militaire operaties gebruiken in overeenstemming is met wettelijke normen.’
‘Ik wil dat mijn onderzoek zich richt op zowel academici als militaire functionarissen die betrokken zijn bij de integratie van AI-systemen in het leger. Er is veel optimisme, maar ik wil laten zien dat we ons bewust moeten zijn van de onzekerheid rondom AI. Ik wil dat mensen de complexiteit begrijpen. Er zijn geen eenvoudige antwoorden of oplossingen voor de vraag hoe AI-systemen moeten worden ontworpen of gebruikt. Elk systeem vereist een individuele beoordeling. Maar in het algemeen geldt dat legers erop moeten letten dat ze systemen zo zorgvuldig mogelijk inzetten, zodat de onzekerheden rond hun voorspellingen geen dodelijke gevolgen hebben.’