Certo non abbiamo l’ardire di dare lezioni di strategia e tattica militare a chi può insegnarcela, ma oggi sul Corriere della Sera il generale Camporini pone una discutibile questione di etica sull’utilizzo della intelligenza artificiale nella gestione dei cosiddetti “droni killer” sui campi di battaglia delle guerre 2.0. Come quella che si sta combattendo in Ucraina, per intenderci.
Camporini dopo aver descritto minuziosamente il funzionamento degli “switchblade” e aver fatto un preciso parallelo storico con l’introduzione delle balestre nelle guerre medievali, dà un giudizio netto sull’uso dei droni ‘governati’ dalla Ai. Quando il fattore umano “si attenua, fino a scomparire”, ci troviamo di fronte “a una situazione del tutto nuova e mai sperimentata prima nella storia”, “una situazione che travalica persino i confini dell’etica”, perché “nella sua essenza è disumanizzata”.
Conclusione, “la scienza e la tecnologia, in questo come in altri domini, devono fermarsi”. Insomma guai ad avere il dominio della tecnica nell’arte militare. Beh, se lo scenario futuro che preoccupa Camporini è quello alla Skynet, con la macchina che prende il sopravvento sull’uomo, certo che ci sarebbe da preoccuparsi, ma per adesso forse è meglio restare alla guerra in Ucraina. E a pensare come vincerla.
Sempre oggi, infatti, stavolta su Libero, leggiamo una intervista al generale che ci spiega come il piano di Putin per ora “è fallito” per la “resistenza inattesa delle forze ucraine” che “ha sorpreso un po’ tutti”. Così come per “le capacità inferiori” dimostrate dall’esercito russo rispetto “a quelle che gli erano state attribuite”.
E allora delle due l’una, o apriamo il dibattito su guerra ed etica chiedendoci se in futuro sia meglio togliere ai fanti atlantici sul campo il tubo che lancia il drone kamikaze guidato dalla AI, oppure pensiamo al presente e gliene diamo in numero massiccio agli ucraini insieme alle informazioni di intelligence per colpire dove e quando serve e respingere i russi anche dal Donbass.
In mezzo c’è un tecno-moralismo che oggi ma anche domani rischia di apparire un po’ ambiguo e idealistico. Perché dovremmo limitare lo sviluppo di capacità che potrebbero migliorare i sistemi d’arma, rendendoli più precisi e migliori nella difesa di un Paese e nel sostegno che gli alleati possono dare a quel Paese? Del resto Matrix non ha ancora conquistato la realtà e il fattore umano varrà pure ancora qualcosa.