Happy Scribe Logo

Transcript

Proofread by 0 readers
Proofread
[00:00:00]

Hallo, ik ben Lena d'Hoffmann, correspondent verborgen oorlogen waar de correspondent. Ik ga zo meteen een verhaal voorlezen over miljardeninvesteringen die legers overal ter wereld doen in kunstmatige intelligentie. Ze zijn ervan overtuigd dat die technologie onmisbaar is om de oorlog van de toekomst te winnen. Maar is dat wel zo? Of is het gewoon de zoveelste peperdure hype in militaire technologie? Viëtnam 1968 en Amerikaans marine vliegtuig scheerde laag over de jungle en laat honderden kleine apparaatjes vallen, akoestische microfoons die stemmen, trucks of voetstappen kunnen detecteren.

[00:00:43]

Maar ook sensoren die de geur van urine ruiken en detectoren die seismische trillingen van langslopende mensen of trucks oppikken. De machines zenden de informatie die ze oppikken naar vliegtuigen die constant boven de jungle cirkelen. Die sturen op hun beurt de gegevens naar gigantische computers honderden kilometers verderop. Zo gauw de algoritmes van de computers hebben bepaald dat het niet om onschuldige boeren of langslopende olifanten gaat, maar om gorilla's, stijgt er een vliegtuig op om het gebied plat te bombarderen. Operatie Blauwwit was bedoeld om de zogeheten Ho Chi Minh route van Laos naar Zuid-Vietnam af te sluiten.

[00:01:26]

Communistische guerrilla's gebruikten de route, een systeem van paden, wegen en rivieren, om vanuit Noord-Vietnam hun troepen in het door de Amerikanen bezette zuiden te bevoorraden. Ik Loyd kost het Amerikaanse leger 2 miljard dollar om op te zetten. Dat is omgerekend 20 miljard dollar in 2015 en een kleine 1 miljard per jaar om te gebruiken. Dat is ongeveer 10 miljard in 2015. De operatie was zo geheim dat zelfs het Amerikaanse Congres er vrijwel geen weet van had. 1 Klein dingetje het werkte niet.

[00:02:04]

Het kostte de gorilla's slechts een week om te achterhalen wat de vreemde apparaatjes waren en hoe ze onschadelijk te maken. De koeien langs de routes te sturen en urine te verspreiden op plekken die gorilla's helemaal niet gebruikten. Af en toe lieten de gorilla's trucks langs de censoren rijden om de Amerikanen het gevoel te geven dat de route werd gebruikt. Tegelijkertijd stuurden de communisten via de havens van het Cambodjaanse Chinook veel ladingen wapens naar Zuid-Vietnam die niemand opmerkten. De VS bombardeerden vijf jaar lang de verkeerde plekken in Vietnam.

[00:02:41]

Ik LeWitt is een vroeg voorbeeld van de digitalisering van militaire operaties. In de decennia na de Vietnam oorlog bleven militaire machten experimenteren en hoewel veel daarvan mislukten, is het geloof in semi-automatische oorlogsvoering nooit verdwenen. Sterker nog, het idee om via allemaal sensoren data te verzamelen en die met super krachtige computers en ingewikkelde algoritmes te analyseren om zo de vijand steeds opnieuw een stap voor te zijn, is actueler dan ooit. Deze keer is de hoop gevestigd op nieuwe ontwikkelingen en kunstmatige intelligentie.

[00:03:21]

Zijn de torenhoge verwachtingen deze keer wel terecht? Of is dit de volgende peperdure, hippe militaire technologie die gedoemd is te mislukken? Er spelen op dit moment drie technologische ontwikkelingen die de samenleving ingrijpend zullen veranderen, zegt Andrea Gylfi, onderzoeker aan het MEDO Defence College in Rome, waar hij zich bezighoudt met het moderniseren van de strijdkrachten. Ten eerste neemt de rekenkracht van computers de komende jaren extreem toe. Ten tweede. Daardoor zullen steeds slimmere algoritmes op basis van en dat is het derde punt.

[00:03:58]

Steeds meer beschikbare data steeds complexere beslissingen kunnen nemen, zegt Giuly. Daardoor worden machines steeds beter in staat menselijke taken uit te voeren, zoals redeneren en het nemen van beslissingen. Kunstmatige intelligentie zelf is niet nieuw. Maar door de ontwikkelingen kunnen de mogelijkheden veel beter worden benut. Dat komt vooral door vooruitgang op het gebied van nieuwe machine learning technieken. Met name deep learning. In een notendop houdt dat in dat computers niet door mensen worden verteld hoe ze moeten handelen, maar zichzelf leren hoe ze moeten handelen.

[00:04:42]

Dat wekt ook de interesse van legers. Machines kunnen sommige taken veel nauwkeuriger en vooral sneller uitvoeren dan mensen. Zo maken sommige luchtverdedigingssysteem al jaren gebruik van algoritmes om op aanvallen te reageren die te groot zijn en te snel gaan voor mensen om af te slaan. Door de huidige ontwikkelingen neemt de snelheid en complexiteit van de berekeningen extreem toe, wat een heleboel nieuwe mogelijkheden biedt. Er is veel aandacht voor killer robots zoals autonomen, tanks of zwermen drones die zelfstandig op zoek gaan naar een doelwit en dit zonder tussenkomst van een mens kunnen aanvallen.

[00:05:24]

Maar machine learning kan ook ingezet worden bij het afslaan van cyberaanvallen. Het herkennen van nep nieuws of om de groeiende hoeveelheid beelden van militaire drones en satellieten door te spitten. Machine learning kan mogelijk ook een rol spelen in militaire besluitvorming. Noorden Erow, een tool gebouwd door het Israëlische bedrijf Juni Quay, verzamelt enorme hoeveelheden informatie over militaire missies, zoals vijandige posities, het bereik van wapens, de snelheid waarmee tanks zich verplaatsen, een bepaald terrein en het weer. Een algoritme draagt vervolgens razendsnel verschillende opties aan om een missie uit te voeren en berekent de verwachte gevolgen.

[00:06:09]

Als soldaten dat zouden doen, kosten tussen de 12 en 24 uur, stelt het bedrijf. Door machine learning kan oorlogsvoering in de toekomst zo snel en complex worden dat gewone mensen het niet of amper nog kunnen volgen. Daardoor dreigt een scenario dat mensen taken moeten overdragen aan machines om tijdig en effectief te kunnen reageren. Of oorlogsvoering ooit echt zo drastisch zal veranderen? Staat De Lenig lang niet vast. Voorlopig worden de ontwikkelingen vooral gedreven door de angst voor elkaar, zegt Kenneth Peen, die aan het Londense King's College onderzoek doet naar de invloed van kunstmatige intelligentie op oorlogsvoering.

[00:06:50]

Hij zegt het idee dat tegenstanders een heel krachtig wapen in handen krijgen waarvan je niet precies weet wat het kan doen en hoe effectief het is, is het belangrijkste aanjagen van investeringen in kunstmatige intelligentie. Eind 2018 waarschuwde de toenmalige Amerikaanse minister van Defensie. Charmed is president Trump dat de VS achterloopt op het gebied van AI voor militaire doeleinden. En dus besloot de regering Trump fors te investeren. Alleen al in 2020 besteedde het Pentagon 927 miljoen dollar aan kunstmatige intelligentie en meer specifiek machine learning en ruim 4 miljard dollar aan onbemande en autonome voertuigen die daarvan afhankelijk zijn.

[00:07:38]

De waarschuwing van met IS kwam niet onverwacht. China ziet kunstmatige intelligentie als een manier om de militaire achterstand op de VS in te lopen. President Xi Jinping riep Rusland in 2017 op om wereldleider op het gebied van kunstmatige intelligentie te zijn in 2030. De Russische president Poetin deed daar nog eens een schepje bovenop door te stellen dat het land dat zal leiden in kunstmatige intelligentie zal heersen over de wereld. De Russen zelf ontwikkelden onder meer een onbemande robot tank die werd ingezet in Syrië.

[00:08:16]

Maar ondanks de torenhoge verwachtingen rammelt de technologie nog aan alle kanten. De Russische robot tank kon doelwitten slecht identificeren en het contact met de basis viel twee keer anderhalf uur weg. Het veelbesproken project meegaven een Amerikaans samenwerkingsproject tussen het Pentagon, Gugel, Microsoft en Amazon dat machine learning gebruikt voor het identificeren van objecten en mensen in drone foto's, levert volgens een Amerikaanse generaal nog weinig op. Maar er klinken ook meer fundamentele zorgen. Wat is kunstmatige intelligentie wel slim genoeg om oorlog te voeren?

[00:08:57]

Of blijven mensen de technologie te slim af te zijn, zoals de guerrilla's dat eerder ook deden tijdens Operatie Lowieke? Zomer 2017. In het studiecentrum van de prestigieuze universiteit Maité in Cambridge, Massachusetts, hangt een groepje tweedejaars informatica studenten onderuitgezakt op een bank. Ze doen wat ze het liefste doen discussiëren over techniek. Deze middag over het deep learning algoritme waarmee Googles zelfrijdende auto objecten classificeert. Dat algoritme neemt objecten niet waar zoals mensen dat doen, maar leert zichzelf patronen herkennen in enorme hoeveelheden beelden.

[00:09:40]

In de loop der tijd herkent het algoritme patronen in de opbouw van pixels die samen een object vormen, zoals een huis of een mand. Met allerlei wiskundige rekenmodellen scherpte die patronen steeds opnieuw aan, zodat de uitkomst dichter bij de werkelijkheid ligt. Maar in die kracht schuilt ook haar zwakte. Want net zoals het mogelijk is om te berekenen hoe het model een object juist classificeert, is het ook mogelijk om te berekenen hoe minimale aanpassingen in beelden ervoor kunnen zorgen dat het model een object verkeerd inschatten.

[00:10:17]

Daardoor kun je de gugel uit de rits laten zien dat er niet is zonder dat mensen dat kunnen zien, meent de studente. Op het moment dat de studenten bij elkaar zitten, is dat nog een theoretisch probleem, want in de echte wereld neemt een beeld classificatiesysteem een gemanipuleerd object vanuit meerdere gezichtspunten waar. Zou je de beeldinformatie manipuleren, dan heeft het systeem dat vrij snel door, stelt een toonaangevend onderzoek dat in juli van dit jaar is gepubliceerd. Maar de jongens geloven dat niet.

[00:10:47]

En dus gaan ze aan de slag. Hun doel een algoritme ontwikkelen waarmee je met behulp van een 3D printer een object kunt maken waarmee je het beeld classificatiesysteem van de Gugel auto vanuit ieder gezichtspunt voor de gek kunt houden. Net als de Curiel in Vietnam hopen ze zo het Guben algoritme gemanipuleerde data uit te voeren, waardoor de uitkomst van de berekeningen niet meer klopt. En dat lukt. Door een paar pixels van een beeld aan te passen, weet is het gouden algoritme te overtuigen dat een foto van een kat een hond is.

[00:11:25]

Daarna printen ze een 3D schildpad die het algoritme aanziet voor een machinegeweer en een honkbal. Dit systeem vrijwel niet te onderscheiden van een kop koffie. Wanneer algoritmes voor dit soort zogenaamde serial samples vallen, hallucineren niet. Ze zien simpelweg iets anders dan mensen zien, legt één van de studenten later uit aan Technology Mengers in Wired. Hij zegt Het is geen fout van het model, maar de dingen die voor het model heel voorspelbaar zijn, zie jij niet. Het gaat erom dat mensen niet in staat zijn dit in de data te zien.

[00:12:06]

De vondst van de studenten heeft mogelijk grote gevolgen voor de militaire bruikbaarheid van de technologie. Want wat gebeurt er als je deze methode inzet voor het misleiden van met kunstmatige intelligentie uitgeruste satellieten? Kun je dingen laten zien die er niet zijn of dingen verbergen die er wel zijn? Je tegenstanders kunnen dan investeren in zoiets als het Serlio algoritmische camouflage. Die soldaten of militair materieel onzichtbaar maakt voor de algoritmes van drones of tanks. Die kwetsbaarheid bleef niet onopgemerkt. Het Amerikaanse militaire onderzoekslaboratorium DARPA kondigde in augustus 2019 enkele grote onderzoeksprojecten naar kunstmatige intelligentie aan, waaronder een programma dat zich richt op het Serail Machine Learning met de naam Quarantine Business Agents.

[00:13:05]

Deception ook wel gaart. Daarmee hopen de onderzoekers machine learning modellen weerbaarder te maken tegen aanvallen met gemanipuleerde data, zoals de MARTY'S studenten deden. Hava Spiegelman, professor aan de University of Massachusetts Amherst en programmamanager van e-card, benadrukt dat dit soort serail aanvallen vernietigende effecten kunnen hebben. Een militaire situatie omdat mensen zo'n aanval niet kunnen herkennen. Ze zegt tegen technologie in en Maité Technology Review We zijn als het ware blind. Het maakt het erg gevaarlijk. Volgens Kenneth Payne van King's College is misleiding slechts één van de zwakke punten van deep learning technologie.

[00:13:54]

Die tegenstanders zullen proberen uit te buiten. Hij somt op Kunstmatige intelligentie is niet bijzonder goed in het begrijpen van de context. Het kan aangeven wat er op een foto staat, maar het kan je niet vertellen wat het op enig diepgaand niveau betekent. Ten tweede kan het systeem voor de gek worden gehouden, zoals de studenten met een schildpad lieten zien. En ten derde begrijpen we niet goed hoe beslissingen tot stand komen, vooral niet bij die burning systemen. Hij zegt Deep learning is een soort black box waarvan je de innerlijke werking niet precies begrijpt.

[00:14:33]

Ik denk dat het moeilijk zal zijn om volledig op deze systemen te vertrouwen. Omdat we weten dat ze beperkt en kwetsbaar zijn. Die kwetsbaarheid zal nooit helemaal verdwijnen. Er is altijd de mogelijkheid dat het systeem de verkeerde beslissing neemt en er is altijd de kans dat het wordt verslagen. Die kwetsbaarheid verklaart ook waarom het Pentagon nauw samenwerkt met grote techbedrijven zoals Gugel en Amazon. Die hebben veel meer kennis, financiële middelen, data en talent dan de traditionele defensie industrie om de technologische ontwikkelingen bij te houden en zo rivalen voor te blijven.

[00:15:17]

Hoe zit dat aan deze kant van de Atlantische Oceaan? Europa heeft dat soort big tech bedrijven helemaal niet, zegt Luca Shana Tonie, onderzoeker bij denktank Carnegie, waar ze zich bezighoudt met Europese veiligheids en defensie. Bovendien ontbreekt het in Europa aan het risicokapitaal dat het Amerikaanse kunstmatige intelligentie onderzoek aanjaagt. En er zijn geen gigantische staatsfondsen zoals in China beschikbaar. Daarnaast bezuinigen de Europese Commissie en EU lidstaten fors op Defensie en de ontwikkeling van nieuwe militaire technologie, waaronder kunstmatige intelligentie.

[00:15:59]

Shana Toni zegt Als het om het innemen van de koppositie in de race om kunstmatige intelligentie gaat, heeft Europa eigenlijk al verloren. En dat leidt tot een lastig dilemma, zegt Patrick Bulder. Hij is strategisch analist bij het Center for Strategic Studies. Hij zegt De techniek is er en zal in meer of mindere mate worden toegepast. Dat draai je niet meer terug wanneer de kunstmatige intelligentie systemen niet zelf maakt. Loop je het risico dat anderen ze tegen je gebruiken?

[00:16:35]

Of dat je afhankelijk ben van anderen om de technologie te kopen en daarmee verlies je ook de controle op hoe de systemen werken, zegt hij. Hij vervolgt De Amerikanen zullen vermoedelijk geen inzage geven in hun algoritmes, want als ze dat uit handen geven, verdwijnt een strategisch voordeel. Daardoor weet je ook niet welke data zijn gebruikt om de modellen te trainen en hoe dat mogelijk van invloed is op hoe beslissingen tot stand komen. Maar zelf investeren in iets waarvan je niet weet of het werk is ook niet zonder risico, zegt hij.

[00:17:13]

Als je te snel zelf gaat ontwikkelen, ontstaan er fouten. Dan creëer je een schijnveiligheid waar je niets aan hebt. Net als de duizenden machines die in 1968 boven de jungle van Vietnam werden afgeworpen, zijn de verwachtingen rondom de militaire inzet van kunstmatige intelligentie hooggespannen. Maar voorlopig blijft het daarbij. Want net als de microfoontjes en sensoren die door Vietnamese guerrilla's voor de gek werden gehouden met langslopende koeien en urine, is ook kunstmatige intelligentie kwetsbaar voor het menselijk vernuft. Maakt dat de militaire toepassingen van kunstmatige intelligentie en hip.

[00:17:55]

Wel, als je bedenkt dat er miljarden worden besteed aan een technologie waar vrijwel niemand echt op zit te wachten, die niemand volledig begrijpt en die kwetsbaar is in militaire situaties. Als je kijkt naar eerdere pogingen om oorlogsvoering te automatiseren, dan is het maar zeer de vraag of de hoge ambities deze keer wel zullen worden waargemaakt. Maar de mogelijkheid dat het wel lukt om een soort superwapen te maken het leger is een onoverbrugbare voorsprong, geven ze op rivalen, hoe klein ook, is niet uit te sluiten.

[00:18:27]

En precies daarom klotst het geld tegen de plinten. Niet per se om die wapens zelf in handen te krijgen, maar ook om de kans dat het een ander wel lukt zo veel mogelijk uit te sluiten. En helemaal nutteloos is een programma nooit, want je leert ook waar de kwetsbaarheden van het systeem zitten. Kennis die je vervolgens kunt gebruiken om wapens van tegenstanders onschadelijk te maken. Bij de kunstmatige intelligentie oorlog van de toekomst gaat het vermoedelijk niet om wie de meest indrukwekkende wapens produceert, maar om het manipuleren van de software van die wapens.

[00:19:04]

Die strijd speelt zich grotendeels af buiten de fysieke wereld en draait om kennis van de besturingssystemen. Daarbij is kennis van de kwetsbaarheden van de systemen misschien wel net zo waardevol als kennis over technologie. Wie wel werkt? Toch denkt Andrea Gigli van het MEDO Defence College in Rome dat het zo'n vaart niet zal lopen met de militaire toepassing van kunstmatige intelligentie. Hij zegt kunstmatige intelligentie is de toekomst, maar de angsten en zorgen dat het oorlogsvoering radicaal zal veranderen zijn overdreven. Hij zegt Ik ben vooral sceptisch over de snelheid waarmee de veranderingen zullen gaan.

[00:19:44]

Zeker omdat elke technologie een ondersteunend ecosysteem vereist dat heel moeilijk en tijdrovend is om op te bouwen. Zo'n ecosysteem vereist een extreem ontwikkelde wetenschappelijke, technologische en industriële basis die de meeste landen helemaal niet hebben. Kylie verwacht daarom dat kunstmatige intelligentie langzaam zal worden geïntegreerd in de krijgsmacht, waarbij landen steeds meer middelen zullen investeren om de gebreken te corrigeren. Hij zegt als we dat niet doen, lopen ze juist het risico kwetsbaarder te worden in plaats van sterker. Want al zou Rusland een poging doen om wereldleider te worden op het gebied van kunstmatige intelligentie om zoals Poetin voorspelde, over de wereld te kunnen heersen, Dan zal het daardoor eerst geld moeten weghalen bij andere militaire systemen, zoals kernwapens, ballistische raketten en nucleaire onderzeeërs.

[00:20:43]

En dat maakt de Russen voorlopig vooral minder sterk. Hij zegt als de Russen bezuinigen op andere systemen om geld te investeren in een serie. Tot nu toe onbewezen onbetrouwbare voor oorlogsvoering in effectieve technologieën. Moeten we daar zeker niet tegen zijn en waarschijnlijk zelfs aanmoedigen. Bedankt voor het luisteren. Wil je meer te weten komen over de verborgen kanten van oorlogen en ben je nog niet lid van De Correspondent, wordt het dan nu? Ga naar de correspondent Pantanal Slash wordt lid.

[00:21:22]

Tot de volgende keer.