l Clic dell’Algoritmo: Quando l’Intelligenza Artificiale Preme il Bottone e l’Uomo Scompare dal Campo di Battaglia

02.05.2026
di Sergio Saraceni
La realtà scientifica e geopolitica del 2026, documentata dai campi di battaglia dell'Iran, dell’Ucraina e delle tensioni crescenti tra altri grandi potenze mostra alcuni agghiaccianti problemi sull’utilizzo della Intelligenza Artificiale.

Per comprendere la portata di un evidente mutamento epocale, occorre ripercorrere brevemente la traiettoria storica. Dalla Seconda Guerra Mondiale al culmine della Guerra Fredda, la decisione letale era intrinsecamente umana: il “bottone rosso” simboleggiava responsabilità morale, gerarchia di comando e, in ultima analisi, la possibilità – per quanto remota – di un ripensamento. Clausewitz parlava di “nebbia della guerra”, quel caos in cui il giudizio del comandante restava sovrano. Oggi, invece, la nebbia è dissipata da sensori, big data e reti digitali: la macchina non solo vede meglio, calcola più velocemente, ma decide con una freddezza che esclude il dubbio etico. Non è un’evoluzione tecnologica neutra; è una rivoluzione antropologica che ridefinisce il concetto stesso di sovranità politica, di responsabilità e di umanità nella guerra.

Dal punto di vista scientifico, il meccanismo è chiaro e implacabile. I sistemi di armi autonome letali (LAWS, Lethal Autonomous Weapon Systems) – definiti dal Dipartimento della Difesa USA come piattaforme capaci di “selezionare e ingaggiare bersagli senza ulteriore intervento umano” una volta attivati – si basano su intelligenza artificiale di tipo machine learning e deep learning. Algoritmi addestrati su enormi dataset di immagini satellitari, intercettazioni SIGINT, video di droni e pattern di vita analizzano in tempo reale migliaia di variabili: posizione, movimento, comunicazione, persino il “profilo comportamentale” di un individuo. Non si tratta di semplici automi pre-programmati, ma di reti neurali che apprendono, si adattano e ottimizzano le scelte in frazioni di secondo, superando i limiti cognitivi umani.

Prendiamo i casi concreti, documentati e in corso. Nel conflitto di Gaza, l’IDF ha dispiegato su larga scala sistemi come Lavender e Gospel. Lavender, un algoritmo di machine learning sviluppato dall’Unità 8200, ha generato database di decine di migliaia di potenziali militanti di Hamas, analizzando pattern di comunicazione, movimenti e associazioni. Fonti interne all’esercito israeliano hanno rivelato che nelle fasi iniziali, l’accuratezza dichiarata era intorno al 90%, ma con un margine di errore del 10% che ha prodotto migliaia di bersagli errati: civili, parenti di militanti, operatori umanitari. La revisione umana? Ridotta a pochi secondi per bersaglio. Gospel, invece, si concentra su infrastrutture: tunnel, siti di lancio di razzi, nascondigli. Il risultato è una “catena di uccisione” industrializzata, dove l’IA non suggerisce soltanto, ma accelera e moltiplica le decisioni letali a una scala impossibile per l’uomo. Dove’s Daddy?, un sistema correlato, traccia i target fino a casa loro e segnala il momento esatto per il colpo, trasformando l’abitazione in obiettivo.

Non è un caso isolato. Nel teatro ucraino-russo, che nel 2026 entra nel suo quinto anno, i droni rappresentano il 70-80% delle perdite sul campo. Kiev ha prodotto milioni di unità FPV (First Person View) equipaggiate con IA per navigazione anti-jamming e targeting autonomo: algoritmi addestrati su dati reali di battaglia hanno portato l’accuratezza da un misero 10-20% a oltre il 70-80%. Mosca risponde con sciami di Shahed evoluti e sistemi di guerra elettronica AI-driven, capaci di rilevare e ingaggiare droni nemici senza input umano. Loitering munitions – munizioni vaganti come i Lancet russi o equivalenti ucraini – una volta lanciate, cercano, selezionano e distruggono bersagli in piena autonomia. Non più un operatore che preme il grilletto: l’algoritmo decide in tempo reale, basandosi su sensori e modelli predittivi.

Questo non è “aiuto” all’uomo: è sostituzione progressiva. I sistemi “human on the loop” (supervisione umana) si stanno trasformando in “human out of the loop” su scala tattica, mentre le grandi potenze – USA, Cina, Russia – corrono verso droni da combattimento autonomi e piattaforme navali IA. La corsa agli armamenti algoritmici è già in atto: Pechino ha dimostrato sciami di droni auto-pilotati che hanno allarmato il Pentagono, spingendo aziende come Anduril a accelerare produzione. L’Iran e altri attori regionali integrano AI per targeting rapido. L’ONU, attraverso la Convenzione sulle Armi Convenzionali, discute da anni un trattato vincolante per proibire i “killer robots” entro il 2026, ma i veti delle potenze rendono l’impresa incerta. Intanto, la realtà sul campo avanza più veloce della diplomazia.

E qui si aprono delle considerazioni più profonde, soprattutto per chi guarda al mondo con occhi ancora vivi. 

L’algoritmo può calcolare traiettorie con precisione sovrumana, può ottimizzare le risorse, può ridurre le perdite tra le proprie fila; ma non può incarnare il senso del sacro della vita, né il legame organico tra guerriero, terra e destino. La guerra, nella sua essenza tradizionale, è sempre stata anche un’esperienza esistenziale: un confronto tra comunità radicate, tra storie, tra visioni del mondo, territorio. Il guerriero non era soltanto un esecutore tecnico, ma un soggetto morale che portava su di sé il peso della decisione, il legame con i propri morti, con la terra da difendere, con un’idea di giustizia che trascendeva il calcolo immediato. Un grande esempio di tutto questo nella cultura classica ci viene dato nell'Iliade. Quanti sentimenti e dubbi vi erano in quei validi guerrieri? Quanti pentimenti? Persino Achille permise all'anziano Re di Troia, Priamo, di riprendere il corpo di suo figlio Ettore, caduto eroicamente nello scontro leale (e non pilotato da circuiti e chip). 

L’Intelligenza Artificiale dissolve questo legame. Sostituisce il giudizio umano – imperfetto, sì, ma radicato in una cultura, in una tradizione, in un’etica viva – con una logica puramente funzionale, fredda, priva di memoria e di trascendenza.

Le ricadute etiche sono enormi e inquietanti. Chi è responsabile quando un algoritmo commette un errore che costa vite innocenti? Il programmatore che l’ha addestrato? Il comandante che ha attivato il sistema? Lo Stato che lo ha acquistato? O nessuno, perché la decisione è stata “delegata” a una macchina che non può essere chiamata a rendere conto? Si profila così una nuova forma di irresponsabilità collettiva: la guerra diventa un processo tecnico impersonale, in cui la morte viene amministrata come un dato statistico. Il sacro della vita – quel principio che in ogni civiltà autentica imponeva limiti, riti, codici d’onore – viene progressivamente espulso dal campo di battaglia. L’algoritmo non dorme mai, non conosce pietà, non conosce rimorso: calcola, ottimizza, esegue.

Per i giovani militanti identitari, le nuove responsabilità che si profilano sono chiare e urgenti. Non si tratta soltanto di opporsi tecnologicamente all’avanzata di questi sistemi – impresa forse già perduta sul piano militare – ma di preservare, nel pensiero e nella formazione, una concezione della guerra e della politica che resti profondamente umana. Significa rifiutare la neutralizzazione del politico operata dalla tecnica, difendere l’idea che la sovranità non può essere delegata a un codice, e che il nemico va riconosciuto non solo come dato da distruggere, ma come alterità concreta con cui misurarsi. Significa, soprattutto, ricordare che un popolo che affida la propria difesa ultima a macchine senza anima rischia di perdere non solo battaglie, ma la propria stessa essenza: diventa un’entità amministrata, non più una comunità viva.

Prima che il clic apparentemente senza volto renda obsolete non solo le armi umane, ma l’umanità stessa, è necessario un risveglio. La tecnica, per quanto avanzata, resta uno strumento. Quando diventa padrona, trasforma la guerra da confronto tra destini in un processo automatico di sterminio efficiente. E l’uomo, ridotto a supervisore marginale o a semplice dato nel database, scompare dal campo di battaglia molto prima di essere fisicamente eliminato.

La vera sfida per il nostro tempo non è fermare l’algoritmo – impresa probabilmente impossibile – ma impedire che esso cancelli ciò che resta dell’uomo: il giudizio morale, il legame con la terra, il senso del sacro, la responsabilità di chi decide sapendo di doverne rispondere davanti alla storia e davanti a Dio (perché per quanto si vogliano delegare le proprie volontà e azioni alle macchine, alla fine dei nostri giorni ci sarà sempre Dio a giudicarci per ciò che abbiamo fatto, fatto fare ad altri e scelto di fare o non fare, e per parafrasare una massima di Battiato “Nell'ora della fine non ti servirà Chat GPT”).