Defensie

Geen Belgisch verbod op ’killer robots’

Pieter Keuppens

Killer robots zijn autonome wapensystemen die op basis van een algoritme, zelf keuzes kunnen maken over leven en dood. Denk hierbij bijvoorbeeld aan drones, onbemande tanks en onderzeeërs. Gezien het feit dat er geen menselijke tussenkomst is bij de besluitvorming van zulke wapens, heersen er ethische bekommernissen met betrekking tot het gebruik ervan. België kon als eerste een verbod vorderen op de productie en het gebruik van killer robots, maar dit wetsvoorstel raakte op de valreep niet gestemd. Is het verbieden van deze wapens wenselijk en realistisch?

Op 17 april keurde de Kamercommissie voor Defensie een wetsvoorstel goed dat een verbod zou leggen op volledig autonome wapensystemen, waaronder dus killer robots. Het leek erop dat België het eerste land zou worden dat een dergelijk verbod invoert, maar het wetsvoorstel haalde de plenaire vergadering niet. N-VA vroeg in de Kamercommissie namelijk een tweede lezing die uiteindelijk nooit plaatsvond. Discussies over het reguleren van killer robots op internationale schaal nemen wel steeds toe. De huidige conflicten in Oekraïne en Gaza, tonen de destructieve kracht die zulke wapensystemen kunnen hebben.

Wapenwedloop

De internationale beweging Stop Killer Robots probeert druk uit te oefenen op staten om regulering te overwegen. Volgens hen is het ethisch niet aanvaardbaar dat algoritmes beslissingsmacht krijgen over leven en dood. Toch zien we dat staten blijven investeren in artificiële intelligentie dat de basis vormt van deze killer robots. AI biedt namelijk heel wat voordelen bij militair gebruik. Hierdoor evolueren we naar een wapenwedloop tussen grootmachten om deze technologie zo goed mogelijk te beheersen. China bijvoorbeeld heeft reeds de ambitie uitgesproken om tegen 2030 wereldleider te worden wat betreft militaire AI-toepassingen.

Artificiële intelligentie in het militaire domein kan ervoor zorgen dat er minder strijdkrachten moeten worden ingezet. Wat een argument pro gebruik is, aangezien dit mensenlevens kan redden. Het is echter ook zo dat killer robots niet altijd een correct onderscheid kunnen maken tussen een burger en een soldaat, wat dan weer het ethische debat stimuleert. Tot slot richt ik mij tot u als lezer, moet een AI gedreven computeralgoritme kunnen beslissen over leven en dood?

PAL Nieuwsbrief

schrijf je gratis in

Blijf op de hoogte met onze dagelijkse nieuwsbrief




Plaats een reactie

Steun nu ook

het vrije woord

Vind je dit artikel interessant?

Neem een PAL-proefabonnement

(nu eerste maand gratis)

Probeer het nu
Delen