Una strategia militare, riferita in particolare alla guerra nucleare, prevede una risposta automatica in caso di primo attacco nemico (‘first strike’). Tale risposta (‘second strike’) verrebbe attivata automaticamente nel caso in cui l’attacco nemico avesse annientato la leadership politica e militare. In gergo si chiama “fail deadly” o “uomo morto”.

In seno alla comunità militare USA sta nascendo nuovamente una discussione se dotarsi o meno di tale sistema, anche alla luce dei progressi compiuti dalla Russia con le sue armi ipersoniche, che lasciano agli Stati Uniti solo 6 minuti di tempo (dal lancio all’esplosione) per decidere cosa fare. C’è chi dice che 6 minuti siano troppo pochi, e che quindi bisognerebbe dotarsi di programmi basati sull’intelligenza artificiale (IA) che aiutino a decidere le misure più appropriate nel più breve tempo possibile.

Nel caso la leadership umana non fosse disponibile, l’intelligenza artificiale potrebbe anche essere lasciata sola a decidere la rappresaglia nucleare. Un “dispositivo dell’uomo morto” in chiave moderna, che spaventa molti ma che inizia a essere visto come valida alternativa al non fare nulla.

In ambito militare mi sembra si stia guardando all’intelligenza artificiale non solo come un modo per agevolare il lavoro delle truppe o per ottenere risparmi nella logistica, ma anche per demandare agli algoritmi decisioni spesso controverse.

Qualche mese fa mi trovavo a una cena con diverso personale militare, e arrivato puntualmente l’argomento dell’intelligenza artificiale un ufficiale straniero mi disse che la tendenza era quella di inserire processi decisionali autonomi nelle armi solo dentro aree geografiche ben definite. Per fare un esempio, se prima lanciavi un missile verso un obiettivo e quello — facendo il suo lavoro di missile — arrivato all’obiettivo esplodeva, ora si sta pensando di dotare il missile di un suo “cervello” autonomo: arrivato all’obiettivo, e solo nell’area geografica che delimita l’obiettivo, il missile compie una serie di (velocissime) considerazioni addizionali che lo portano a decidere autonomamente se esplodere o meno.

Sempre per proseguire l’esempio (e qui sto ipotizzando io), se il missile nota sul posto dei bambini potrebbe “decidere” di non esplodere. In questo caso è un bene che la cosiddetta arma autonoma sia andata a sostituire l’arma stupida che invece sarebbe esplosa e basta.

Ovviamente messo così sembra un cambiamento vantaggioso, visto che l’arma compie un ultimo controllo prima di radere al suolo l’obiettivo, a tutto vantaggio della popolazione e per scongiurare morti civili. Vista da quest’ottica l’idea di autorizzare l’uso di armi autonome (che siano però autonome solo vicino al loro target) sembrerebbe un netto miglioramento rispetto al passato.

In pratica però dobbiamo sempre prendere in considerazione diversi problemi, fra cui l’interazione uomo-macchina, in particolar modo i cambiamenti comportamentali dell’uomo a seguito di uno sbilanciamento decisionale a favore delle macchine. In altre parole, se oggi posso immaginare che l’ordine di lanciare un attacco verso un luogo potenzialmente civile sia dato solo dopo innumerevoli controlli e con mille attenzioni, un domani — quando i missili decideranno da soli se esplodere o meno — questi potranno essere lanciati con molta più disinvoltura, poiché gli operatori avranno la possibilità di accollare la responsabilità di eventuali errori agli algoritmi.

Ricordiamo che nel 1983 i satelliti sovietici scambiarono i riflessi del sole su nuvole ad alta quota come dei missili balistici americani, segnalando un attacco nucleare che in realtà non stava avvenendo. Solo la presenza di spirito dell’ufficiale sovietico Stanislav Petrov — che decise di seguire la sua “intelligenza umana” anziché le indicazioni dei sistemi automatici — scongiurò la risposta di Mosca a un attacco inesistente, e con sé una possibile guerra nucleare.

Ma quella era un’epoca in cui dei computer ancora ci si fidava poco. Oggi lo “scaricabarile tecnologico” è una eventualità tutt’altro che remota, e da tenere presente quando gli strateghi prepareranno i passi procedurali uomo-IA all’interno di una risposta militare. A maggior ragione se di tipo nucleare.