All’inizio di questo mese, la società che ha ideato ChatGPT ha annunciato la propria partnership con Anduril, una società di armi con sede in California, per produrre armi ad Intelligenza Artificiale (IA).

Il sistema OpenAI-Anduril, testato in California alla fine di novembre, consente la condivisione di dati tra parti esterne per prendere decisioni sul campo di battaglia. Ciò si inserisce perfettamente nei piani dell’esercito americano e di OpenAI per normalizzare l’uso dell’IA sul campo di battaglia.

Anduril, con sede a Costa Mesa in California, produce droni, missili e sistemi radar basati sull’intelligenza artificiale, compreso torri di sorveglianza, sistemi Sentry, attualmente utilizzati nelle basi militari statunitensi di tutto il mondo, al confine tra Stati Uniti e Messico e sulla costa britannica per rilevare le imbarcazioni di migranti. Il 3 dicembre, hanno ricevuto un contratto triennale con il Pentagono per un sistema che offre ai soldati soluzioni di intelligenza artificiale durante gli attacchi.

A gennaio, OpenAI ha cancellato un divieto diretto nella propria politica di utilizzo di “attività ad alto rischio di danni fisici” che comprendeva specificamente “guerra e azioni militari” e “sviluppo di armi.” Meno di una settimana dopo, la società ha annunciato una collaborazione con il Pentagono nel campo della sicurezza informatica.

Il coinvolgimento di OpenAI nell’industria bellica è in totale antitesi con il suo stesso statuto. La loro dichiarazione di voler creare “un’AGI [Intelligenza Generativa Artificiale] sicura e benefica” che non “danneggi l’umanità” è ridicola se poi usano la tecnologia per uccidere. ChatGPT potrebbe verosimilmente, e probabilmente lo farà presto, scrivere dei codici per un’arma automatizzata, analizzare informazioni per effetturare bombardamenti o sostenere invasioni e occupazioni.

Dovremmo essere tutti terrorizzati da quest’utilizzo dell’IA per la morte e la distruzione. Tuttavia, non si tratta di una novità. Israele e gli Stati Uniti testano e utilizzano l’IA in Palestina da anni. In effetti, Hebron è stata definita una “città intelligente”, poiché l’occupazione impone la propria tirannia attraverso la perforazione dei sensori di movimento e calore, delle tecnologie di riconoscimento facciale e della sorveglianza CCTV.

Al centro di questa sorveglianza oppressiva c’è il Blue Wolf System, uno strumento di intelligenza artificiale che scansiona i volti dei palestinesi quando vengono fotografati dai soldati di occupazione israeliani, facendo riferimento a un database biometrico in cui sono memorizzate informazioni su di loro. Dopo aver inserito la foto nel sistema, ogni persona viene catalogata in base a una classificazione a colori a seconda del suo ‘livello di minaccia’ percepito, in modo che il soldato possa decidere se lasciarla passare o fermarla. I soldati delle forze di occupazione israeliana vengono ricompensati per aver scattato il maggior numero di fotografie, che hanno definito “Facebook per i palestinesi”, secondo le rivelazioni del Washington Post nel 2021.

La tecnologia di guerra di OpenAI arriva proprio mentre l’amministrazione Biden sta spingendo gli Stati Uniti a utilizzare la tecnologia per “realizzare gli obiettivi di sicurezza nazionale.” Questa era infatti parte del titolo di un comunicato della Casa Bianca, pubblicato a ottobre di quest’anno, che richiedeva un rapido sviluppo dell’intelligenza artificiale “in particolare nel contesto dei sistemi di sicurezza nazionale.”

Pur non menzionando esplicitamente la Cina, è evidente che anche la percezione di una ‘corsa agli armamenti AI’ con la Cina è una motivazione fondamentale per una simile richiesta da parte dell’amministrazione Biden. Ciò non riguarda solo le armi da guerra, ma anche la competizione per lo sviluppo della tecnologia su larga scala.

All’inizio di questo mese, gli Stati Uniti hanno vietato l’esportazione in Cina di chip HBM, un componente fondamentale dell’intelligenza artificiale e delle unità di elaborazione grafica (GPU) di alto livello. L’ex CEO di Google Eric Schmidt ha riferito che la Cina è due o tre anni avanti rispetto agli Stati Uniti relativamente all’IA, cambiando sostanzialmente le proprie dichiarazioni dell’inizio dell’anno, nelle quali aveva affermato che gli Stati Uniti erano in testa rispetto alla Cina.

Dichiarando l’esistenza di una “matrice di escalation delle minacce” quando ci sono sviluppi nell’IA, rivela che gli Stati Uniti vedono la tecnologia come uno strumento di guerra e un modo per affermare la propria egemonia. L’intelligenza artificiale rappresenta l’ultima delle incessanti – e pericolose – provocazioni e allarmismi nei confronti della Cina da parte degli Stati Uniti, che non riescono a tollerare di vederla progredire più di loro.

In risposta al comunicato della Casa Bianca, OpenAI ha rilasciato una dichiarazione in cui ha ribadito molte delle affermazioni della Casa Bianca sui “valori democratici” e sulla “sicurezza nazionale.” Ma che cosa c’è di democratico in un’azienda che sviluppa tecnologie per colpire e bombardare meglio le persone? Chi viene realmente tenuto al sicuro dalla raccolta di informazioni per una migliore elaborazione della tecnologia di guerra?

Ciò rivela certamente l’allineamento dell’azienda con la retorica anti-cinese e le giustificazioni imperialiste dell’amministrazione Biden. Essendo l’azienda che ha inserito i sistemi AGI all’interno della società in generale, è profondamente allarmante che abbia messo da parte ogni codice etico e si sia gettata direttamente nelle braccia del Pentagono. Per quanto non sia sorprendente che aziende come Palantir e la stessa Anduril utilizzino l’intelligenza artificiale per la guerra, da aziende come OpenAI – un’organizzazione no-profit presumibilmente guidata dalla propria missione – dovremmo aspettarci di meglio.

L’intelligenza artificiale viene utilizzata per ottimizzare le uccisioni, al confine tra Stati Uniti e Messico, in Palestina e negli avamposti imperiali statunitensi di tutto il mondo. Mentre i sistemi di intelligenza artificiale sembrano innocentemente inseriti nella nostra vita quotidiana, dai motori di ricerca ai siti di streaming musicale, non dobbiamo dimenticare che queste aziende stanno usando la stessa tecnologia in modo letale. Mentre ChatGPT può suggerire dieci modi per protestare, probabilmente viene anche addestrata a uccidere, meglio e più rapidamente.

Dalla macchina bellica al fragile equilibrio del nostro pianeta, l’IA nelle mani degli imperialisti statunitensi significa solo maggiori profitti per loro e maggiore devastazione e distruzione per tutti noi.

Di Nuvpreet Kalra e Tim Biondo


Nuvpreet Kalra è il Digital Content Producer di CODEPINK. Ha conseguito una laurea in Politica e Sociologia presso l’Università di Cambridge e un Master in Internet Equalities presso l’Università delle Arti di Londra. Da studentessa, ha fatto parte di movimenti di liberazione e decolonizzazione, nonché di gruppi antirazzisti e antimperialisti. È entrata a far parte di CODEPINK come stagista nel 2023 e ora produce contenuti digitali e per i social media. In Inghilterra, organizza gruppi per la liberazione palestinese e per l’antimperialismo

Tim Biondo è il responsabile delle comunicazioni digitali di CODEPINK. Hanno conseguito una laurea in Studi sulla Pace presso la George Washington University.


Traduzione dall’inglese di Simona Trapani. Revisione di Thomas Schmid.

L’articolo originale può essere letto qui