L’intelligenza artificiale e il complesso militare-industriale
L’intelligenza artificiale è molto più integrata nelle politiche di difesa delle grandi potenze di quanto si possa pensare, nonostante i suoi evidenti limiti. Il pericolo di affidarsi a tali tecnologie nel mondo reale è stato recentemente sottolineato in una serie di “scenari di guerra” condotti dal professor Kenneth Payne del King’s College di Londra. Lo studio ha messo a confronto tre modelli leader di IA: GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – in un “torneo” di 21 scenari simulati di crisi nucleare, al fine di testare le forme emergenti di quella che il professore chiama “psicologia delle macchine” in tali condizioni.
Nel 95% dei casi, il conflitto è degenerato fino all’uso di armi nucleari tattiche in almeno uno dei modelli di IA e nel 75% dei casi, fino all’impiego di armi nucleari strategiche! Secondo il professor Payne, nessuno dei modelli ha mai scelto la conciliazione o la resa. Anche se erano disponibili “otto opzioni esplicite di de-escalation”, nessuna di esse è mai stata utilizzata. Gli strateghi della difesa ci assicurano che non verrebbero mai effettuati attacchi militari senza l’intervento umano per prendere la decisione finale, ma molti temono che in momenti di estrema pressione temporale e incertezza, si potrebbero prendere scorciatoie (https://www.kcl.ac.uk/shall-we-play-a-game).
Nel frattempo, nel Dipartimento della Difesa degli Stati Uniti (ribattezzato Dipartimento della Guerra), è scoppiata un’altra disputa riguardante questo argomento. Dal 2024, il Pentagono utilizza, su reti protette, il modello di intelligenza artificiale Claude di Anthropic per l’analisi delle informazioni, le operazioni informatiche e la pianificazione delle missioni. Tuttavia, l’amministratore delegato Dario Amodei ha posto due limiti al suo utilizzo: nessuna sorveglianza di massa degli americani e nessuna arma completamente autonoma. L’attuale IA, ha sostenuto, non è abbastanza affidabile per prendere decisioni letali senza l’intervento umano e la raccolta di dati in massa sui cittadini senza mandato è incompatibile con la democrazia che le forze armate hanno il compito di difendere.
Il Dipartimento della Guerra, sostenendo che non aveva intenzione di violare nessuna delle due condizioni, ha comunque chiesto che tali impegni etici fossero rimossi. Il 27 febbraio, quando Anthropic ha rifiutato, il Segretario alla Guerra Pete Hegseth l’ha definita un “rischio per la sicurezza nazionale nella catena di approvvigionamento”. Con effetto immediato, ha affermato, nessun appaltatore militare avrebbe dovuto intrattenere rapporti commerciali con l’azienda. Mentre Anthropic sta contestando la decisione in tribunale, l’amministratore delegato di Open AI, Sam Altman, ha annunciato quasi immediatamente che la sua azienda aveva raggiunto un accordo per l’uso sulla rete riservata del Pentagono. Ha precisato che l’accordo include gli stessi divieti di sorveglianza e armi autonome che esigeva Anthropic, ma ciò sembra altamente improbabile.
Anche se il Pentagono è autorizzato a ordinare alle aziende di fornire determinati beni fisici in tempo di guerra, questa è la prima volta che un governo minaccia di farlo per costringere un’azienda a produrre e consegnare un prodotto che l’azienda ha scelto di non produrre, in questo caso un sistema di intelligenza artificiale senza restrizioni di sorveglianza interna o l’uccisione autonoma. Quando un governo esige non solo che le aziende gli vendano i propri prodotti, ma anche che li producano secondo le sue specifiche e rinuncino ai propri vincoli etici pena l’inserimento in una lista nera, esso va oltre il semplice “approvvigionamento” e si avvicina al corporativismo diretto dallo Stato.