C’è qualcosa di profondamente affascinante e inquietante allo stesso tempo nell’idea che oggi le armi più avanzate non sparano proiettili, ma processano informazioni. È un pensiero che mi accompagna spesso quando leggo di startup come Helsing, un’azienda europea nata per costruire tecnologie di difesa basate sull’intelligenza artificiale e progettata per dare potere strategico alle democrazie in un’epoca dove il vantaggio militare non si misura più solo in carri armati, navi o aerei, ma nella capacità di interpretare il campo di battaglia in tempo reale, di prendere decisioni più velocemente del nemico, di dominare il caos delle informazioni e restituirlo come dominio operativo. Helsing, fondata nel 2021, ha già raccolto enormi capitali e ha stretto partnership importanti con governi europei, ma quello che la rende diversa non è solo il capitale o l’ambizione, quanto l’idea — ormai inevitabile — che la superiorità militare sarà presto, se non già ora, una questione di software.
Ciò che questa startup sviluppa non sono semplici “algoritmi” o “moduli AI”, ma veri e propri sistemi di fusione dati multi-dominio, che integrano sensori ottici, radar, immagini termiche, feed satellitari, telemetria da droni, comunicazioni radio e perfino dati acustici, per costruire una comprensione immediata e dinamica dell’ambiente operativo, che un essere umano da solo non potrebbe mai raggiungere in tempo utile. Si tratta di sistemi in grado di identificare minacce in movimento, tracciare vettori nemici anche in condizioni di jamming elettronico, suggerire manovre evasive o offensive ai piloti o ai comandanti sul campo, e — cosa ancora più interessante — apprendere dal contesto in tempo reale, adattandosi a nuovi pattern, nuovi assetti, nuove strategie nemiche. In una parola: armi cognitive.
Pensare a questi sistemi come “fighi” può sembrare superficiale, ma c’è qualcosa di sinceramente potente, quasi cyberpunk, nell’immaginare che la guerra del futuro — e per certi versi già del presente — venga condotta con stack software distribuiti, reti neurali resilienti al degrado del segnale, interfacce uomo-macchina che traducono la complessità dei sensori in azioni immediate e letali, e un’architettura in cui ogni elemento, dal drone al satellite, dal carro armato alla fanteria, sia un nodo intelligente dentro una rete tattica pensante. È il concetto di edge AI spinto all’estremo: l’intelligenza è distribuita sul campo, non più centralizzata, e ogni dispositivo è un sensore e un attore autonomo che partecipa a una visione collettiva. Questo cambia tutto: nella guerra tradizionale, l’informazione arrivava ai decisori; nella guerra aumentata dall’AI, la decisione si prende dove nasce l’informazione.
Nel della cybersecurity sappiamo bene quanto sia difficile proteggere sistemi complessi, ma in ambito militare questa complessità raggiunge livelli vertiginosi. Una rete di sensori AI-driven come quella immaginata da Helsing non è solo potente, è anche esposta. Qualsiasi attore in grado di penetrare anche solo uno dei nodi — un drone, una piattaforma navale, una comunicazione radio compromessa — potrebbe in teoria alterare le percezioni dell’intero sistema, iniettare dati falsi, creare bersagli fantasma o, peggio ancora, distorcere il flusso decisionale in modo invisibile. Eppure proprio per questo, Helsing investe in soluzioni di AI sicura, spiegabile, auditabile, che possano essere verificate anche sul campo, in ambienti non connessi, con moduli di fail-safe e modalità di supervisione umana sempre disponibili. In altre parole, non si limitano a costruire armi intelligenti, ma cercano di costruire armi responsabili — se questa parola ha ancora un significato quando si parla di sistemi letali automatizzati.
Quello che mi colpisce di più, è che siamo a un punto di svolta: per la prima volta nella storia, il codice è letteralmente più importante dell’acciaio, e chi scrive software per la guerra deve pensare come un ingegnere, come un soldato e come un filosofo allo stesso tempo. Le startup come Helsing stanno prendendo questa responsabilità e la stanno incastonando dentro macchine capaci di apprendere, distinguere e combattere. È un mondo che affascina e spaventa, che ci obbliga a pensare non solo a cosa possiamo costruire, ma a cosa siamo disposti a delegare. Se l’intelligenza artificiale può decidere quando e come colpire, chi sarà davvero il comandante?
Nel guardare i video delle loro demo, nel leggere le descrizioni tecniche delle piattaforme operative che stanno realizzando, non riesco a non pensare che queste non siano più “armi” nel senso tradizionale, ma interi ecosistemi cognitivi progettati per prevalere in ambienti ambigui, elettronicamente degradati, multilivello. Non sono razzi né bombe, sono occhi, cervelli e nervi digitali distribuiti sul campo. E chi saprà dominarli — costruirli, mantenerli, proteggerli — non vincerà solo guerre, ma definirà il concetto stesso di sicurezza per i decenni a venire.
Commenti
Posta un commento