Mening: AI in Oorlogsvoering—De Stille Verschuiving van de Tech Industrie richting het Slagveld

Image generated using ChatGPT

Mening: AI in Oorlogsvoering—De Stille Verschuiving van de Tech Industrie richting het Slagveld

Leestijd: 6 minuut

Het debat over autonome wapens, technische beveiligingsbeleid en AI-ethiek in het leger is aan de gang, maar de afgelopen dagen hebben belangrijke ontwikkelingen gebracht. Leiders van OpenAI, DeepSeek, en zelfs de oprichter van Spotify kondigden nieuwe overeenkomsten aan om met overheden samen te werken aan defensietechnologieën en strategische AI

De spanningen rondom het gebruik van kunstmatige intelligentie in oorlogsvoering zijn de afgelopen dagen geïntensiveerd. Deze maand kondigden verschillende techbedrijven nieuwe strategische partnerschappen aan met overheden om defensieprojecten te ontwikkelen. En, zoals bij veel in de AI-ruimte, is er de afgelopen maanden een scherpe verschuiving geweest in hoe AI wordt benaderd voor militaire en wapenontwikkeling.

Slechts enkele dagen geleden kondigden OpenAI en de Amerikaanse overheid een deal van $200 miljoen aan om AI-gedreven defensietools te ontwikkelen. Details blijven schaars, waarbij functionarissen de nadruk leggen op “administratieve operaties” als de primaire toepassing.

Ondertussen heeft de Zweedse ondernemer en oprichter van Spotify Daniel Ek het Duitse bedrijf Helsing gesteund door een investeringsronde van €600 miljoen te leiden. Helsing, dat oorspronkelijk gericht was op softwaretechnologie, beweegt zich nu naar de ontwikkeling van drones, onderzeeërs en vliegtuigen.

Reuters onthulde onlangs dat DeepSeek China’s militaire en inlichtingenoperaties ondersteunt. Een hoge Amerikaanse functionaris zei dat de AI-startup heeft geholpen de uitdagingen in de handelsoorlog tussen de VS en China op te lossen, en het open-source model helpt de Chinese overheid bij surveillance operaties.

Tech reuzen werken op manieren samen met overheden die we niet gewend zijn te zien—althans niet zo openlijk—en ze raken betrokken bij activiteiten die traditioneel geen deel uitmaken van hun rol, zoals hoge tech executives die zich aansluiten bij de Amerikaanse legerreserve.

Wat is er aan de hand?

Een verandering in spraak

Techbedrijven gingen van “We zouden nooit AI gebruiken voor militaire doeleinden” naar “Misschien zullen we deze clausule stilletjes uit ons beleid verwijderen” naar “Goed nieuws, we bouwen nu AI-gestuurde wapens voor de overheid!”

Tenminste, dat is hoe het lijkt voor de oplettende waarnemer.

Niet zo lang geleden leek het erop dat AI-giganten met trots verklaarden dat ze nooit militaire toepassingen zouden ondersteunen, maar er is iets veranderd. Google is een goed voorbeeld hiervan.

In 2017 lanceerde het Amerikaanse Ministerie van Defensie Project Maven, het Algorithmic Warfare Cross-Functional Team, een initiatief om AI te integreren in militaire operaties. Google was in eerste instantie betrokken, maar interne protesten – aangewakkerd door zorgen van werknemers over ethiek – zorgden ervoor dat het bedrijf zich tijdelijk terugtrok.

Vorig jaar ontstond er opnieuw een druk richting militaire activiteiten, en bijna 200 Google DeepMind werknemers drongen er bij het bedrijf op aan om de militaire contracten te laten vallen.

“Elke betrokkenheid bij militaire en wapenproductie beïnvloedt onze positie als leiders in ethische en verantwoorde AI, en gaat in tegen onze missieverklaring en gestelde AI principes,” schreven de bezorgde medewerkers.

Deze keer was Google’s reactie af te wachten en stilletjes zijn AI-ethiekrichtlijnen bij te werken door het gedeelte te verwijderen waarin ze zeiden dat ze nooit AI-technologie zouden ontwikkelen die schade kon veroorzaken. Demis Hassabis, Google’s AI-hoofd, legde uit dat ze zich gewoon aanpasten aan veranderingen in de wereld.

Hoewel het geval van Google de evoluerende relatie tussen AI en militair gebruik illustreert, is het slechts één voorbeeld van een bredere industriebrede verschuiving naar het dienen van defensiedoelstellingen.

AI herschikt de militaire en defensiesector

De lancering van Project Maven, of zoals sommigen het misschien noemen, “toen de Amerikaanse overheid zich realiseerde dat grote taalmodellen uiterst nuttig kunnen zijn in oorlogvoering,” onthulde een van de redenen waarom de Amerikaanse overheid geïnteresseerd is in AI.

AI-systemen vermogen om enorme hoeveelheden gegevens te verwerken, objecten op het slagveld te identificeren en beeldmateriaal te analyseren is vooral aantrekkelijk in de defensiesector.

Verbeterde analyses, verder dan menselijke mogelijkheden

Sinds 2022 integreren zowel Oekraïne als Rusland AI-systemen in hun militaire operaties.

De Oekraïense regering heeft een partnerschap gesloten met technologiebedrijven en meerdere strategieën ingezet om optimaal gebruik te maken van grote taalmodellen. Onlangs heeft het 2 miljoen uur aan slagveldbeelden verwerkt—het equivalent van 228 jaar aan video—om AI-modellen te trainen voor militaire processen. Hoeveel mensen zouden ze nodig hebben om zoveel data te analyseren?

“Dit is voedsel voor de AI: Als je een AI wilt onderwijzen, geef je het 2 miljoen uur (aan video), dan wordt het iets bovennatuurlijks,” legde de oprichter van het non-profit digitale systeem OCHI, Oleksandr Dmitriev, uit. De beelden kunnen de prestaties van wapens optimaliseren en helpen bij het verbeteren van gevechtstactieken.

Een ander AI-systeem, Avengers, is het door AI aangedreven inlichtingenplatform ontwikkeld door het Innovatiecentrum van het Ministerie van Defensie van Oekraïne, dat live video’s van drones verwerkt en wekelijks tot 12.000 vijandelijke eenheden identificeert.

Drones: Een gewild product op het slagveld

Drones op het slagveld – vaak aangeduid als “moordmachines” – behoren momenteel tot de meest waardevolle technologieën in de moderne oorlogsvoering vanwege hun autonomie, precisie en lage kosten. Deze robots stellen oorlogvoerende naties in staat om high-impact aanvallen uit te voeren zonder het leven van menselijke piloten te riskeren en voor een fractie van de traditionele kosten.

Tegen mei van dit jaar had Rusland meer dan 3,000 Veter kamikaze drones ingezet in Oekraïne. Deze systemen zijn in staat om doelwitten te identificeren en aanvallen autonoom uit te voeren.

Slechts enkele dagen geleden zetten Oekraïense soldaten de Gogol-M drone in, een “moederschip” drone die tot 300 kilometer kan reizen, andere drones kan vervoeren, radar kan ontwijken door op lage hoogte te vliegen en de grond eronder kan scannen om vijandelijke troepen te detecteren en aan te vallen.

Volgens The Guardian kost elke aanval met deze krachtige drone ongeveer $10.000, terwijl een raket systeem met iets oudere technologie tussen de $3 en $5 miljoen zou hebben gekost.

De gloednieuwe startup Theseus heeft snel $4,3 miljoen opgehaald nadat de jonge oprichters vorig jaar een bericht deelden op het sociale mediaplatform X, waarin ze zeiden dat ze een drone hadden gebouwd voor minder dan $500 die kon vliegen zonder een GPS-signaal.

Hoewel de dronetechnologie nog niet zo nauwkeurig is als sommige ontwikkelaars hopen – vooral wanneer deze wordt beïnvloed door weersomstandigheden die de “zichtbaarheid” verminderen – heeft het grote potentieel getoond in de sector.

Een Moeilijk Te Bereiken Wereldwijde Consensus

Het zijn niet alleen landen in oorlog of de wereldmachten die nieuwe door AI aangedreven technologieën voor defensie ontwikkelen. Veel naties integreren al jaren AI in hun inspanningen op het gebied van cyberbeveiliging en de ontwikkeling van autonome wapens. Dit is niet alleen een fenomeen voor 2025.

Sinds 2014 probeert de Verenigde Naties tevergeefs overeenstemming te bereiken over regelgevende kaders met meerdere landen.

Meer dan 90 landen kwamen onlangs samen bij de Algemene Vergadering van de VN in New York om te discussiëren over de toekomst van AI-gestuurde autonome wapens en hun regelgeving. Er werd geen consensus bereikt, en de Algemene Vergadering heeft alleen een niet-bindende resolutie uit 2023 aangenomen, die waarschuwt voor de noodzaak om dodelijke autonome wapensystemen (LAWS) aan te pakken.

Het grote debat nu gaat over de vraag of er al dan niet een wereldwijd kader moet worden geïmplementeerd. Veel landen zijn het eens over de noodzaak van nieuwe wereldwijde richtlijnen die particuliere AI-bedrijven en landen kunnen reguleren. Andere landen, zoals de VS, China, Rusland en India, geven de voorkeur aan het handhaven van de huidige internationale wetten en het onafhankelijk creëren van nieuwe wetten voor elk land volgens hun lokale behoeften – of belangen. En we hebben net gezien hoe chaotisch het proces van het creëren van nieuwe AI-regelgeving was, zelfs op staatsniveau in Californië.

Techbedrijven Steeds Meer Betrokken

Activisten zoals Laura Nolan van Stop Killer Robots maken zich zorgen over het gebrek aan veiligheidsmaatregelen en wettelijke kaders die de vooruitgang van techbedrijven bij de ontwikkeling van autonome wapens en AI-software voor het leger controleren.

“We vertrouwen over het algemeen niet op zelfregulering van industrieën … Er is geen reden waarom defensie- of technologiebedrijven meer vertrouwen zouden verdienen,” zei Nolan tegen Reuters.

In 2024 onthulden onderzoekers dat Chinese instellingen Meta’s open-source grote taalmodel Llama voor militaire doeleinden hebben gebruikt. Het Pentagon sloot een deal met Scale AI om Thunderforge te ontwikkelen—een AI-project om militaire besluitvorming te moderniseren. En OpenAI ging een partnerschap aan met militaire aannemer Anduril—een defensiebondgenoot van het Amerikaanse leger, het Verenigd Koninkrijk, Oekraïne, en Australië.

Defensie startups zijn ook gegroeid in Europa, en winnen niet alleen terrein op het gebied van de ontwikkeling van nieuwe technologieën en projecten, maar trekken ook top talent aan.

Een Gecompliceerde Ontwikkeling

Een andere factor die nauw verband houdt met de betrokkenheid van technologiebedrijven bij nationale defensiestrategieën is nationalisme. Steeds meer softwareontwikkelaars en AI-experts kiezen ervoor om te werken aan projecten die passen bij hun idealen en culturele wortels, in plaats van simpelweg hogere salarissen na te jagen. Sommigen hebben zelfs banen in de VS afgewezen die het dubbele loon boden – zoals Google of OpenAI – om deel te nemen aan Europese ondernemingen zoals Helsing, bijvoorbeeld.

De draden van politiek, technologie, nationalisme en ideologische strijd raken steeds meer verweven – vaak blijven overwegingen van ethiek, moraliteit en humanisme achter.

Recente ontwikkelingen maken duidelijk dat tech-giganten een enorme rol spelen in militaire en nationale defensie-inspanningen over de hele wereld. De ontwikkeling van autonome wapens en oorlogsgerelateerde technologieën vordert in een razendsnel tempo, terwijl pogingen van de Verenigde Naties om internationale overeenkomsten en regelgeving voor de toekomst van de mensheid te vestigen steeds meer geminimaliseerd lijken te worden.

Zonder internationale overeenkomsten – en met ambitieuze techbedrijven die door overheden worden gesteund om ’s werelds krachtigste wapens te ontwikkelen met behulp van AI – wat heeft de toekomst in petto voor de mensheid in de komende jaren?

Vond je dit artikel leuk?
Geef een beoordeling!
Ik vond het verschrikkelijk Ik vond het echt niet leuk Het was redelijk Best goed! Ik vond het geweldig!

We zijn erg blij dat je van ons werk hebt genoten!

Zou je als gewaardeerde lezer je mening over ons willen delen op Trustpilot? Dit neemt niet veel tijd in beslag en zouden we erg op prijs stellen. Bedankt, je bent geweldig!

Beoordeel ons op Trustpilot
0 Gestemd door 0 gebruikers
Titel
Reactie
Bedankt voor je feedback