ISPI - AI e sicurezza
RIDEFINIZIONE DELLA SICUREZZA |
COME L'AI STA PLASMANDO IL FUTURO DELLA DIFESA |
In che modo l'intelligenza artificiale sta rimodellando le strategie di sicurezza e difesa globali e quali implicazioni ha questo cambiamento per l'equilibrio di potere tra le nazioni? |
Negli ultimi anni, l'intelligenza artificiale (IA) è diventata una forza centrale nel plasmare la sicurezza e la difesa globali, spostando l'equilibrio di potere, le priorità strategiche e la natura della guerra. Con la rapida evoluzione delle tecnologie dell'IA, i decisori politici stanno ponendo maggiore enfasi sul raggiungimento della superiorità tecnologica e dell'autonomia. La recente introduzione del modello di IA cinese, DeepSeek, ha sottolineato la natura crescente della corsa agli armamenti dell'IA. Questo sviluppo mette in discussione diverse ipotesi geopolitiche riguardanti l'attuale panorama della competizione tra i principali stakeholder: Stati Uniti e Cina . Tuttavia, l'applicazione di tale strumento in guerra solleva anche nuove vulnerabilità e preoccupazioni etiche. La competizione per il predominio dell'IA tra le principali potenze globali sta ridefinendo la rivalità internazionale e influenzando sia le politiche di sicurezza che le strategie economiche . La standardizzazione dell'IA, un aspetto critico ma spesso trascurato, svolge un ruolo significativo nello stabilire norme e regole globali. Mentre i paesi competono per il controllo sullo sviluppo e la governance dell'IA, la sovranità digitale emerge come una delle principali preoccupazioni, in particolare per quanto riguarda i rischi per la sicurezza informatica, il controllo dei dati e le applicazioni di difesa. Questo dossier esamina le intersezioni tra difesa, tecnologia e politica internazionale , fornendo approfondimenti sulle complesse dinamiche che plasmeranno il futuro ordine globale in un mondo guidato dall'IA . Evidenzia inoltre l' importanza strategica dei settori tecnologici emergenti , tra cui infrastrutture critiche come i cavi sottomarini, che sono sempre più integrati nell'architettura di difesa globale potenziata dall'IA. Inoltre, il dossier esplora l'agenda politica aggiornata dell'Italia riguardante le strategie di difesa nazionale in risposta all'invasione russa dell'Ucraina , nonché il ruolo di queste tecnologie strategiche in Medio Oriente. Mentre l'intelligenza artificiale continua a rimodellare il panorama geopolitico, comprenderne le implicazioni per la sicurezza globale è ora più che mai fondamentale. ================== Lezioni apprese dal passato. Tecnologie dirompenti, guerra e implicazioni per strategia, etica e sicurezza globaleDai generali agli algoritmi: ripensare la guerra nell'era dell'intelligenza artificiale e della supremazia quantistica. ![]() Georges Clemenceau una volta osservò che “la guerra è troppo importante per essere lasciata ai generali” . Sulla base di questa prospettiva, dobbiamo pensare se l'affermazione di Clemenceau rimane pertinente anche di fronte ai rapidi progressi tecnologici e se possiamo sostituire i “generali” con i “politici”. Nel 2018, The Economist ha pubblicato un rapporto speciale intitolato "The Future of War", esplorando quale impatto potrebbero avere le tecnologie emergenti in futuro e come creeranno "nuovi campi di battaglia". Secondo gli autori, la tecnologia e la competizione geopolitica stanno rimodellando il loro carattere nel 21° secolo, ma l'assioma di Clausewitz "la guerra è ancora una lotta di volontà" sembra rimanere valido. Evidenziando uno spettro di tecnologie dirompenti, come l'intelligenza artificiale (IA), i sistemi di armi autonomi, i droni, i robot, le nuove armi biologiche e le operazioni informatiche, il rapporto conclude che nel contesto delle nuove guerre, la competizione per la supremazia in queste tecnologie solleva la questione significativa: questa corsa agli armamenti tecnologici può essere controllata ed è possibile creare regole che garantiscano il controllo umano su [questi] sistemi? Questa preoccupazione è così significativa che Paul Scharre descrive uno “scenario da incubo” causato non tanto dalle invasioni “napoleoniche” relegate al secolo scorso, quanto piuttosto dai malfunzionamenti di queste tecnologie dovuti principalmente a errori umani (ad esempio, codifica software errata) o ad attacchi informatici perpetrati da avversari. In questo contesto, nasce il pensiero (accanto al dibattito accademico) che il primato tecnologico avrebbe cambiato il volto della guerra , rendendola meno “maestra di violenza” poiché è combattuta (ciò è particolarmente vero per le società democratiche occidentali) dalle macchine piuttosto che dagli esseri umani. La natura mutevole della guerraSecondo il database fornito dall'Oxford Martin Institute , il 2023 si è concluso con circa 500.000 morti tra combattenti e civili causati da conflitti interstatali, intrastatali ed extrasistemici. Attualmente, sono in corso 45 conflitti intra e interstatali in Medio Oriente e Africa, 21 conflitti armati in Asia, 7 in Europa e 6 in America Latina. Questi dati aiutano a comprendere due elementi fondamentali della politica internazionale: da un lato, la violenza rimane una costante essenziale nelle relazioni internazionali , anche nel XXI secolo e persino nei conflitti intrastatali ed extrasistemici. D'altro canto, le prove storiche (ad esempio, i recenti casi di Iraq, Afghanistan e Ucraina) mostrano che la superiorità tecnologica non può essere considerata l'unico fattore (cioè la bacchetta magica) in grado di vincere le guerre . In altre parole, le guerre contemporanee, come quelle del passato, si combattono e si vincono non solo grazie al primato tecnologico, ma anche grazie alla capacità, alla rapidità di adattamento, alla preparazione dei mezzi (tecnici e finanziari) e del personale per sconfiggere l'avversario. Eppure, non è la prima volta che assistiamo alla teorizzazione di una “rivoluzione” nella guerra e alla fine degli “stivali sul terreno”. La giustificazione di fondo è sempre la stessa: un’enfasi esagerata sulle nuove tecnologie. La conclusione è ugualmente identica: nonostante l’inevitabile evoluzione tecnologica, tali teorie sono confutate da prove empiriche provenienti dai campi di battaglia. Parafrasando Clausewitz, possiamo dire che attraverso l'evoluzione tecnologica, il "camaleonte della guerra" cambia forma e grammatica, ma la logica del perseguimento degli obiettivi politici rimane invariata. Dobbiamo allora chiederci quali cambiamenti siano innescati dalle attuali tecnologie dirompenti? E cosa possiamo imparare dal passato sulle rivoluzioni tecnologiche che hanno segnato vari periodi storici? In definitiva, come possiamo governare queste tecnologie per limitarne gli effetti dannosi in un contesto internazionale intriso di conflitto competitivo tra grandi potenze? Per rispondere a queste domande, possiamo analizzare due tecnologie considerate dirompenti e cercare di comprenderne le implicazioni politiche, militari e sociali nel contesto della politica internazionale. Si tratta dell'intelligenza artificiale (IA) e del calcolo quantistico (QC) . Intelligenza artificiale e calcolo quantistico: un cambio di paradigma nelle tecnologie a duplice usoL'emergere di tecnologie come l'intelligenza artificiale e il calcolo quantistico rappresenta un cambiamento di paradigma , distinguendosi nettamente dalle innovazioni tradizionali sia per natura che per impatto. L'intelligenza artificiale e il controllo di qualità sono tecnologie di uso generale (GPT) che non solo migliorano i processi esistenti, ma creano nuovi paradigmi operativi. L'intelligenza artificiale, con le sue capacità di apprendimento e adattamento, è già utilizzata simultaneamente in campi civili, come la diagnostica medica, i sistemi di guida autonomi e il potenziamento delle capacità computazionali. Allo stesso modo, il controllo di qualità, sebbene ancora nelle sue fasi iniziali, promette di risolvere problemi complessi in aree come la crittografia, la modellazione climatica e la progettazione di nuovi materiali, con potenziali impatti su settori strategici e vitali. Le tecnologie tradizionali hanno avuto un effetto incrementale , migliorando i processi esistenti o abilitando nuovi servizi nel contesto militare, per poi tradursi in usi civili. Ciò non vale per tecnologie come AI e QC , che hanno un potenziale dirompente tipico degli effetti di cambiamento delle regole del gioco perché, in quanto tecnologie di uso generale, eliminano radicalmente la soglia di accesso a tali strumenti, rendendoli immediatamente accessibili a praticamente chiunque disponga delle risorse necessarie in termini di competenza e budget. Infine, mentre le tecnologie tradizionali hanno migliorato la sicurezza senza generare rischi sistemici significativi, AI e QC introducono sfide senza precedenti . La possibilità di sviluppare sistemi di armi autonomi basati sull'IA o di superare le attuali difese crittografiche con QC rappresenta rischi che richiedono una regolamentazione globale, approcci collaborativi tra nazioni e azioni diplomatiche generali che si scontrano con il naturale conflitto competitivo insito nella corsa alla supremazia tecnologica. Questo perché, nel caso specifico di AI e QC, le tecnologie informatiche esistenti vengono messe in discussione nel nucleo delle loro premesse operative, comprese quelle utilizzate per l'infrastruttura di sicurezza, e il vantaggio significa una posizione gerarchica di fronte alle altre. Si considerino ad esempio le implicazioni per guidare la corsa quantistica e, in questo caso, come sottolineato da Foreign Affairs sulla quantistica, "Mentre un computer classico deve elaborare uno stato dopo l'altro in sequenza, un computer quantistico può esplorare molte possibilità in parallelo . Immagina di cercare di trovare il percorso corretto in un labirinto: un computer classico deve provare ogni percorso uno alla volta; un computer quantistico può esplorare più percorsi simultaneamente, rendendolo ordini di grandezza più veloce per determinati compiti". Per comprendere la portata dirompente di questa tecnologia, si consideri che per valutare lo stato attuale della corsa quantistica, il ramo di ricerca del Dipartimento della Difesa degli Stati Uniti, la Defense Advanced Research Projects Agency, o DARPA, ha recentemente annunciato una Quantum Benchmarking Initiative per determinare se un qualsiasi approccio di calcolo quantistico possa raggiungere un funzionamento su scala di utilità entro il 2033. Come altre tecnologie trasformative nel corso della storia, QC e AI sono estremamente promettenti , ma introducono anche nuovi rischi significativi . Oltre al furto di dati su larga scala, alla crisi economica e alle violazioni dell'intelligence, i computer quantistici potrebbero consentire attività dannose come la simulazione e la sintesi di armi chimiche o l'ottimizzazione delle traiettorie di volo di uno sciame di droni. Allo stesso modo, l'AI potrebbe amplificare campagne di disinformazione, migliorare le armi autonome o minare la sicurezza attraverso sofisticati attacchi informatici. Queste possibilità sollevano questioni critiche su chi dovrebbe controllare queste tecnologie, come prevenirne l'uso improprio e quali misure di sicurezza sono necessarie per mitigare lo scenario peggiore (ad esempio il cigno nero) I decisori politici e gli iper scalatori (vale a dire le aziende Big Tech) oggi affrontano l' urgente compito di imparare da questi precedenti per garantire che QC, AI e altre tecnologie dirompenti servano al meglio gli interessi dell'umanità . Ciò include la promozione della collaborazione globale per prevenire una corsa agli armamenti nelle applicazioni AI o quantistiche, l'incorporazione di etica e responsabilità nella loro progettazione e lo sviluppo di percorsi standard sicuri e certificati per proteggere i servizi vitali. Nello specifico, sebbene l'efficienza e l'efficacia dell'automazione e del processo decisionale derivanti dal duplice uso dell'AI negli odierni conflitti armati (e QC nel prossimo futuro) rappresentino una superiorità tattico-operativa, a livello strategico e politico, l'esclusione del processo decisionale umano solleva potenziali conflitti con quanto previsto dall'articolo 1(2) del Primo Protocollo addizionale e nel Preambolo del Secondo Protocollo addizionale delle Convenzioni di Ginevra , meglio noto come "Clausola Martens", che richiede l'adesione ai principi di umanità nell'uso di strumenti tecnologici nei conflitti armati. Per raggiungere questo equilibrio, tra interessi guidati dal mercato e benefici globali, sarà necessario un approccio multiforme . Un rigoroso dibattito pubblico e un'istruzione sono essenziali per garantire una cittadinanza informata che comprenda sia le opportunità che i rischi. Discussioni trasparenti tra governi, ricercatori e leader del settore possono guidare politiche che massimizzano i guadagni della società riducendo al minimo i pericoli. Attingere a intuizioni storiche , in particolare dalle lezioni che forniscono la priorità sulla sicurezza e sulla soglia di accesso alla tecnologia adeguata , può contribuire a mantenere anche l'attenzione sugli standard etici per queste tecnologie dirompenti. |
Commenti
Posta un commento