16 april 2024

AI kan menselijke data-analisten helpen met het beter voorspellen van potentiële vijandige satellietmanoeuvres 

STEREO satellieten, Credits; NASA/JPL

STEREO satellieten, Credits; NASA/JPL

Kunstmatige intelligentie (KI of AI) beleefde een hausse aan wereldwijde aandacht in 2022, met name degene genoemd ‘ChatGPT. Het was deze chatbot die zich recent sterk profileerde vanwege het vermogen onopvallend deel te nemen aan velerlei menselijke gesprekken, wat de publieke discussie fors deed aanwakkeren over wat deze technologie in de toekomst ons allemaal zal brengen. ChatGPT, wat staat voor ‘Generative Pre-Trained Transformes’, is ontwikkeld door OpenAI, (o.a. opgericht door Elon Musk) en leent zich voor een keur aan toepassingen, van het onderwijs, bedrijfsleven, tot aan defensie. Wat betreft toepassingen in de ruimtevaart en in het kielzog hiervan de nationale veiligheid, liet recent Patrick Biltgen, directeur van het grote defensiebedrijf Booz Allen Hamilton zich nader uit in een interessant interview aan SpaceNews. Biltgen meent, in zijn algemeen, dat men in de industriesectoren van ruimtevaart, defensie en nationale veiligheid klaar is om te gaan profiteren van de mogelijkheden die dit nieuwe ‘AI-tijdperk’ biedt, al stelt hij tegelijkertijd dat deze industrieën het enorme potentieel van de zogenaamde ‘generatieve AI’ nog maar net begint te doorgronden. Sprekende voorbeelden noemt Biltgen inderdaad een tool als ChatGPT, de chatbox die coherente en overtuigende geschreven inhoud kan creëren, of een model als DALL-E 2 die realistische beelden genereert op basis van beschrijvingen in een natuurlijke taal.

Defensie en ruimtevaartorganisaties zoeken al jarenlang naar geschikte AI-systemen vanwege het vermogen om besluitvormingscycli te verkorten en autonomie in systemen te brengen. Biltgen vertelt dat het met name de ChatGPT, die stormenderhand recent tot het grote publiek doordrong, bij veel ruimtevaart- en defensiebedrijven het besef deed indalen, ‘hoe AI mijn missie verder kan helpen?’, aldus Biltgen. Biltgen meent dat een zeer geschikt gebied voor toepassing van AI in de (militaire) ruimtevaart, de analyse van de manoeuvres van objecten in de ruimte is, AI kan mogelijk de bedoeling van de satellietmanoeuvres achterhalen. Biltgen stelt dat het ‘het lastigste is om menselijke bedoelingen te modelleren’, en vooralsnog zijn het menselijke analisten die beoordelen of een object in de ruimte, dat een ander object in de ruimte nadert mogelijk vijandige bedoelingen heeft. Biltgen zegt dat een AI-model kan worden getraind om advies te geven en ‘een analist of een operator te wijzen op een reeks mogelijkheden’. Dit type voorspellende analyse is lastig, aldus Biltgen, daar vijandige aanvallen in de ruimte niet vaak voorkomen, en er maar een beperkte hoeveelheid op fysica gebaseerde gegevens voor handen is om de modellen te trainen.

Biltgen haalt de Russische invasie van Oekraïne aan als een goed voorbeeld, Biltgen stelt, samenvattend, dat hij e.v.a. meenden dat de troepenopbouw van Rusland bluf was. En vervolgt: “We wisten niet wat Poetin werkelijk bedoelde. Satellietmanoeuvres in een baan om de aarde zien er meestal goedaardig uit, maar tegenstanders zullen de grenzen blijven opzoeken. Biltgen noemt dit een bekende militaire tactiek, het vlak langs de landsgrenzen vliegen van andere landen, het provoceren, en stelt vervolgens: “Ik denk dat je daar iets van terugziet in de ruimte, waar veel operators het vermogen om te bewegen hebben genormaliseerd.” De GPT-chatbot is getraind op algemene kennis en natuurlijke taalverwerking. Een GPT voor nationale veiligheidsanalisten zou bijvoorbeeld vooraf zijn getraind ‘met alle inlichtingenrapporten die ooit zijn geschreven, plus alle nieuwsartikelen en heel Wikipedia’, aldus Biltgen.

Biltgen denkt niet dat AI menselijke analisten van hun brood zal beroven. Voormalig directeur van het Amerikaanse National Geospatial-Intelligence Agency (NGA) Robert Cardillo voorspelde jaren geleden dat bots in de nabije toekomst de meeste satellietbeelden (zo’n 75%) zouden analyseren, en veel menselijke analisten zou vervangen. Deze visie bleek niet juist. De uitgevoerde analyses bleken erg formeel, en minder geloofwaardig als menselijke analyses, aldus Biltgen, en hij voegt er tot slot aan toe: “Intel-analisten bouwen voort op hun kennis van wat ze in de loop van de tijd hebben zien gebeuren. Een aloritme trainen op het voorspellen vanactiviteiten is zeer lastig daar het menselijk leven en de geopolitiek rommelig zijn.” Blitgen gelooft minder in een ‘voorspellingsmachine’ dan in een chatbot die lijsten kan aanleveren met de meest waarschijnlijke mogelijke volgende stappen die zouden kunnen plaatsvinden als gevolg van zijn reeks gebeurtenissen.” Lees hier verder over wat ChatGPT hierover allemaal te zeggen heeft – zeg maar ‘heel overtuigend’ – en het volledig interview met Patrick Biltgen. Bronnen: SpaceNews, ESA, AIMagazine, Unesco, BNR, Trustwave, Leidensecurityandglobalaffairs.nl,
Share

Speak Your Mind

*