Il nuovo ordine del mondo al tempo delle IA generative

 

Il nuovo ordine del mondo al tempo delle IA generative

di Roberto Paura

in rilievo letture pasquinelli A.jpgL’Analytical Engine non ha alcuna pretesa di originare qualcosa. Esso può fare qualsiasi cosa che noi sappiamo ordinargli di compiere. Esso può seguire l’analisi; ma non ha alcune potere di anticipare una qualsivoglia relazione o verità analitica. La funzione della macchina è di assisterci nel rendere disponibile ciò con cui abbiamo già familiarità”

(in Pasquinelli, 2025).

Non stiamo leggendo un commento sulle capacità di ChatGPT e dei suoi emuli, ma la “nota G” delle Notes di Ada Lovelace risalenti al 1843. Lovelace, pioniera di quella che più avanti sarebbe diventata l’informatica, fu assistente di Charles Babbage nella progettazione di una macchina che non fu mai realizzata, l’Analytical Engine appunto, un “motore analitico”, ma fin da allora volle chiarire i limiti del sogno prometeico (e forse, verrebbe da dire, maschile) di una macchina universale che, nelle intenzioni di Babbage, doveva possedere illimitate capacità di calcolo. Secondo Matteo Pasquinelli, tra i più acuti critici in circolazione delle mitologie dell’intelligenza artificiale, docente di Filosofia della scienza all’Università Ca’ Foscari e autore di Nell’occhio dell’algoritmo (vincitore, nell’edizione originale in inglese, del Deutscher Memorial Prize 2024 come miglior libro di teoria critica), la “nota G” di Lovelace rappresenta “la prima liquidazione dell’IA”. Si racconta che Babbage ebbe l’idea di quello che poi avremmo imparato a chiamare computer rimuginando sui numerosi errori delle tavole logaritmiche di inizio Ottocento, necessarie per i calcoli delle rotte marittime su cui si basava l’espansionismo imperiale britannico. “Vorrei che questi calcoli fossero stati eseguiti con il vapore”, avrebbe esclamato. Ma Babbage non cercava una semplice calcolatrice. Il suo motore analitico, garantì, sarebbe stato in grado di “fare tutto, tranne comporre danze popolari” (cit. in Davis, 2003). Ma ora che le IA generative sono in grado di comporre anche danze popolari originali – impresa, peraltro, che riesce loro anche meglio di un calcolo logaritmico – dovremmo allora ammettere che il motore analitico di Babbage sia diventato realtà?

 

Codificare e controllare

Per capire quale sia la risposta a questa domanda, Pasquinelli ci guida nel suo libro nella comprensione di quella svolta che, nei primi anni Sessanta, oppose per la prima volta al paradigma di informazione lineare su cui fino ad allora si basavano gli sforzi di creazione dell’intelligenza artificiale un nuovo paradigma, quello dell’auto-organizzazione, da cui poi sarebbe emersa la famiglia delle tecniche di apprendimento automatico (machine learning). La storia è abbastanza nota: il Percettrone di Frank Rosenblatt, la cui prima versione risale al 1957, fu la prima rete neurale artificiale sintetica, “concepito come una rete di calcolo auto-organizzante”, in grado, nelle parole di Rosenblatt, di raggiungere “la sua organizzazione in modo spontaneo, piuttosto che avere un’organizzazione predefinita nel sistema”. Era un cambio di paradigma radicale rispetto al percorso sull’IA simbolica perseguito fino ad allora, che si rifaceva al sogno della macchina universale di Turing (una variante più avanzata del motore analitico di Babbage) e cercava di sviluppare algoritmi di istruzioni top-down in grado di mettere le macchine in condizione di svolgere qualsiasi tipo di calcolo. Rosenblatt aveva imboccato la strada dell’approccio bottom-up, quello di una macchina in grado di apprendere da sola, secondo i principi dell’auto-organizzazione, l’idea cioè che la maggior parte dei sistemi complessi (biologici, sociali, tecnologici) evolvono in modo spontaneo e autonomo, un’idea che John von Neumann aveva tratto dai tardi appunti di Turing (secondo cui occorreva costruire una macchina con la curiosità di un bambino e lasciare che sviluppasse liberamente la propria intelligenza) e che avrebbe usato per immaginare gli “automi cellulari”, una forma di vita cibernetica in grado di auto-organizzarsi e, magari, colonizzare l’universo. L’intuizione di Pasquinelli è che questa celebre divergenza nella ricerca pionieristica sull’IA sia stata stimolata da esigenze che nulla avevano a che vedere con il sogno di imitare il cervello umano. E questo è vero anche per le macchine pionieristiche di Babbage e Turing:

“[I]l progetto dell’IA non è mai stato realmente «biomorfo» (volto a imitare l’intelligenza naturale, come menzionato in precedenza), bensì «sociomorfo» – volto a codificare e controllare le forme di cooperazione sociale e intelligenza collettiva”

(Pasquinelli, 2025).

Cosa significa? Che l’IA, fin dai suoi esordi, quando fu solo un’idea nella mente di pochi pionieri agli albori della rivoluzione industriale, doveva servire essenzialmente a un unico fine: ottimizzare la divisione del lavoro. Lo stesso Babbage, riprendendo le tesi di Adam Smith, scrisse un saggio Sull’economia delle macchine e delle manifatture (1834) nel quale affermò che le macchine dovevano servire a misurare l’esatta quantità di lavoro necessaria per svolgere un compito e quindi efficientare e automatizzare il più possibile la divisione del lavoro.

 

La trappola della tecnologia

Siamo portati a credere che l’accelerazione tecnologica sia il processo che spinge il mondo del lavoro a trasformarsi, e che sia così almeno dall’epoca delle macchine a vapore. Ma se invece questo processo fosse inverso? Se cioè fossero invece le esigenze dell’organizzazione del lavoro ad alimentare lo sviluppo di nuove tecnologie? In effetti, sembra che le cose siano andate esattamente così. Spiega Carl Benedikt Frey in La trappola della tecnologia:

“In Gran Bretagna, l’aumento dei salari rese necessaria la meccanizzazione perché il Paese restasse competitivo nel commercio internazionale. I produttori che vendevano all’estero furono incentivati a trovare modi per ridurre il costo del lavoro per via delle crescenti dimensioni del mercato e l’intensificarsi della concorrenza che alimentò la volontà politica di favorire la meccanizzazione”

(Frey, 2020).

Secondo Karl Max, l’industrializzazione rese possibile la nascita di una nuova figura, il “lavoratore complessivo” (Gesamtarbeiter), che secondo Pasquinelli “acquisisce le proprietà di uno super-organismo” diventando, per usare i termini di Marx, un “macchinario” sociale. È in questo modo che si creano le premesse per l’automazione: il lavoratore complessivo di Marx è solo, potremmo dire, il passo intermedio verso la sua completa sostituzione a opera di macchine intelligenti auto-organizzate. Oggi le esigenze dell’economia-mondo capitalistica si concentrano sulla necessità di tornare a rendere competitive le economie stagnanti dei paesi a economia avanzata, partendo dalla constatazione che la delocalizzazione della produzione nell’Est e nel Sud del mondo non funziona più, perché anche lì i salari stanno crescendo e il costo del lavoro rischia di diventare insostenibile. Da qui l’esigenza di una nuova ondata di automazione, perlomeno nel settore industriale. Pasquinelli però va oltre e connette con lucidità l’esigenza di automazione a un’altra dinamica-chiave del capitalismo contemporaneo: l’economia delle piattaforme. Con il trionfo della digitalizzazione, nelle economie post-industriali la maggiore estrazione di valore si verifica all’interno delle piattaforme digitali, non più nella manifattura, nemmeno in quella altamente tecnologica. Non è un caso che tra i dieci uomini più ricchi del mondo, sette gestiscano piattaforme digitali (e tra questi tutti i primi quattro).

La genesi della cibernetica e della teoria dell’informazione, afferma Pasquinelli, si situa nel periodo a cavallo tra XIX e XX secolo quando il governo della produzione e della distribuzione industriale su scala globale richiese soluzioni tecnologiche più sofisticate delle macchine industriali.

Analogamente, la genesi delle moderne IA generative si situa negli sviluppi dell’economia delle piattaforme tra gli anni Novanta e il primo quarto del XXI secolo, quando la gestione di enormi quantità di dati, necessaria per segmentare gli utenti e personalizzare i prodotti loro offerti, ha riportato in auge l’idea dell’apprendimento automatico sottesa al Percettrone di Rosenblatt. Che l’IA simbolica fosse la strada sbagliata l’aveva capito tra i primi Von Neumann, netto nel suo rifiuto del riduzionismo computazionale, ossia l’idea che il cervello umano possa essere considerato come un computer. La sua ultima conferenza, poi pubblicata postuma con il titolo Il computer e il cervello (1958), introduceva un’idea foriera di conseguenze: il sistema nervoso è essenzialmente di natura statistica. Si stupiva, von Neumann, di come le reti neurali biologiche operassero “con una tolleranza all’errore che destabilizzerebbe qualsiasi macchina di calcolo deterministica” (Pasquinelli, 2025). Ma intuì che era quella l’abilità che i computer del futuro avrebbero dovuto imitare. Come sintetizza George Dyson, egli comprese che la distinzione tra computer e cervello era che:

“Il cervello è un sistema statistico probabilistico in cui logica e matematica girano come processi di livello superiore. Il calcolatore è un sistema logico matematico su cui si potrebbero costruire sistemi statistici probabilistici di livello superiore come la lingua e l’intelligenza umana”

(Dyson, 2012)

Macchine fondate su algoritmi programmati nel minimo dettaglio per svolgere un compito umano servivano per automatizzare le fabbriche. Nell’economia contemporanea, servono altri tipi di macchine e altri tipi di algoritmi, in grado di navigare il vastissimo oceano dei dati digitali per far girare il capitalismo delle piattaforme. Le IA generative sono nate essenzialmente per questo scopo: un’innovazione tecnologica pensata per soddisfare un bisogno della nuova organizzazione del lavoro, come accadde con le macchine a vapore durante la Rivoluzione industriale.

 

La nuova pausa di Engels 

Del resto, secondo Frey l’altra caratteristica che fa assomigliare la nostra epoca a quella della Rivoluzione industriale è il ritorno della “pausa di Engels”, quel divario tra aumento della produzione e stagnazione dei salari che Friedrich Engels sintetizzò nell’osservazione secondo cui gli industriali “si arricchiscono sulla miseria della massa dei salariati”. Secondo Frey, tale situazione si protrasse fino al 1840 circa e fu caratterizzata da una riduzione della quota di reddito da lavoro rispetto ai redditi da capitale:

“In altre parole, la divergenza tra produzione e salari è coerente con il fatto che la tecnologia del periodo della Rivoluzione Industriale era soprattutto sostitutiva. Gli artigiani del sistema domestico venivano sostituiti dalle macchine […], i profitti di impresa erano incamerati dagli industriali, che li investivano in stabilimenti e macchine.”

(Frey, 2020)

La fine della pausa di Engels avvenne, secondo Frey, perché a un certo punto diventò indispensabile aumentare il livello d’istruzione della classe operaia per renderla in grado di comprendere e far funzionare le macchine, cosicché i salari dei lavoratori iniziarono ad aumentare man mano che si espandeva una classe media decentemente istruita per svolgere quelle mansioni. Se oggi vediamo tornare la “pausa di Engels”, cosa dobbiamo dedurne? Intanto, dovremmo capire che le IA sono una tecnologia sostitutiva, non integrativa, perché funzionale agli interessi di automazione del capitalismo delle piattaforme, che oggi ha ancora bisogno di un enorme bacino di lavoratori di bassa estrazione – magazzinieri, corrieri, etichettatori di immagini, mechanical turks – ma solo fintantoché non sarà in grado di sostituirli a loro volta. In secondo luogo, dovremmo chiederci se la situazione si invertirà come accadde dopo il 1840: in molti lo credono, sostenendo che col tempo sorgeranno nuove occupazioni di concetto per programmare e gestire le IA. Ma cosa accadrebbe se ci trovassimo di fronte a uno scenario in cui le IA sono in grado di migliorarsi da sole? Non si tratta di fantascienza: basti pensare ai recenti progressi nella generazione di dati sintetici, con cui si vorrebbero sostituire i dati generati da esseri umani presenti sul web, ormai non più sufficienti per la voracità di informazione degli algoritmi di machine learning, che hanno bisogno di addestrarsi su immense banche dati, e che una volta finiti quelli umani iniziano a crearseli da sé. A quel punto anche l’ultimo ingranaggio delle piattaforme digitali, l’utente umano, non sarà più necessario. Gradualmente, prima l’organizzazione del lavoro, poi l’economia del sistema-mondo capitalistico e, infine, il mondo stesso, rischia di diventare immagine e somiglianza degli algoritmi di tipo statistico alla base dell’IA generativa, come suggerisce Pasquinelli quando parla di IA “sociomorfe”:

“L’invenzione delle reti neurali statistiche […] fece della statistica il modello della nuova mente artificiale. Da allora, gli strumenti statistici sono diventati non solo un modello di «intelligenza» nella psicologia, ma anche un modello di «intelligenza artificiale» nello sviluppo dell’automazione del lavoro. In definitiva, una visione statistica del mondo e della società ha subito un processo di automazione, normalizzandosi e naturalizzandosi grazie all’IA”

(Pasquinelli, 2025).

Se ciò corrisponde al vero, diventa facile prevedere – come conclude Pasquinelli – che il machine learning costituisca “una prova tecnica dell’integrazione graduale tra automazione del lavoro e governance sociale”: così come le macchine a vapore della Rivoluzione Industriale hanno portato al taylorismo e alla costruzione dei grandi conglomerati finanziari, e questi hanno permesso l’espansione globale dell’Occidente nelle forme dell’imperialismo e del colonialismo, così dovremo attenderci che l’epoca delle IA generative renda possibili nuove forme di governance globale. Spetta a noi prenderne coscienza per tempo e provare a cambiare la direzione del futuro; a patto che, diversamente da quanto avvenne due secoli fa, la nostra voce non finisca per non contare più nulla, sostituita da un sintetizzatore vocale.


Letture

  • Martin Davis, Il calcolatore universale, Adelphi, Milano, 2003.
  • George Dyson, La cattedrale di Turing. Le origini dell’universo digitale, Codice, Torino, 2012.
  • Carl Benedikt Frey, La trappola della tecnologia. Capitale, lavoro e potere nell’era dell’automazione, FrancoAngeli, Milano, 2020.
  • John von Neumann, Computer e cervello, Il Saggiatore, Milano, 2021.
  • ===================================

ChatGPT

Ecco l’elaborazione articolata in abstract, scheda sintetico-analitica e commento critico del saggio Il nuovo ordine del mondo al tempo delle IA generative di Roberto Paura.


ABSTRACT ACCADEMICO

Il saggio di Roberto Paura analizza il ruolo storico-strutturale dell’intelligenza artificiale (IA) nella trasformazione della società e del lavoro, alla luce della genealogia tecnico-filosofica ricostruita da Matteo Pasquinelli. L'autore sfata l’idea che le IA nascano per imitare il cervello umano, mostrando invece come esse siano strumenti sociomorfi, progettati per codificare e controllare l’intelligenza collettiva e ottimizzare la divisione del lavoro. A partire dalla nota G di Ada Lovelace fino alle reti neurali statistiche contemporanee, l’IA emerge come espressione delle esigenze sistemiche del capitalismo industriale prima e delle piattaforme digitali oggi. Le IA generative, come eredi dell’auto-organizzazione introdotta dal Percettrone di Rosenblatt, sono dispositivi di potere funzionali alla nuova governance globale del lavoro e del dato, costruendo un ambiente in cui anche il soggetto umano rischia di diventare superfluo. L’analisi si chiude con una riflessione sulla “pausa di Engels” contemporanea e sulla necessità di anticipare le ricadute socio-politiche dell’automazione, prima che l’ordine algoritmico sostituisca definitivamente l’azione collettiva.


SCHEDA ANALITICO-SINTETICA

Titolo: Il nuovo ordine del mondo al tempo delle IA generative
Autore: Roberto Paura
Fonte: Saggio divulgativo critico, 2025
Tematiche principali:

  • Genealogia storica e filosofica dell’IA

  • Divisione del lavoro e automazione

  • IA come dispositivo sociomorfo

  • Economia delle piattaforme digitali

  • Critica dell’ideologia tecnocratica

  • Rischi sistemici delle IA generative

Struttura del testo:

  1. Premessa storica e teorica:

    • Ada Lovelace e la “nota G” come anticipazione della critica all’IA.

    • La macchina di Babbage come precursore del controllo calcolante.

  2. Svolta epistemologica:

    • Contrasto tra IA simbolica e approccio auto-organizzante (Rosenblatt, von Neumann).

    • La macchina come strumento di organizzazione del lavoro sociale.

  3. La “trappola della tecnologia”:

    • Rovesciamento del paradigma causa-effetto tra lavoro e tecnologia.

    • Automazione come risposta alla crisi della delocalizzazione.

  4. Economia delle piattaforme e IA generativa:

    • Transizione dal paradigma industriale a quello informazionale.

    • L’estrazione di valore si sposta dalla manifattura ai dati.

  5. Verso una nuova “pausa di Engels”:

    • Persistenza della stagnazione salariale e concentrazione dei profitti.

    • La possibilità che l’intera economia venga automatizzata, fino alla marginalizzazione dell’essere umano.

  6. Conclusione:

    • L’IA come nuova infrastruttura del potere globale.

    • Invito alla consapevolezza e alla resistenza politica prima della completa “naturalizzazione” del dominio algoritmico.

Riferimenti teorici e bibliografici:

  • Pasquinelli, Nell’occhio dell’algoritmo (2025)

  • Frey, La trappola della tecnologia (2020)

  • Von Neumann, Computer e cervello (1958/2021)

  • Dyson, La cattedrale di Turing (2012)

  • Marx, concetto di “lavoratore complessivo”


COMMENTO CRITICO

Il saggio di Paura si distingue per la capacità di coniugare divulgazione storica, lettura teorica e critica ideologica in modo organico e stimolante. Basandosi sul lavoro di Matteo Pasquinelli, l’autore scardina con rigore l’immaginario dominante sull’intelligenza artificiale, che la vorrebbe emulazione del cervello umano, per riportarla al suo ruolo strutturale: essere macchina sociale, apparato di potere, meccanismo di sorveglianza e ottimizzazione del lavoro.

Il punto più forte del saggio è l’analisi genealogica che unisce Ada Lovelace, Babbage, Turing e von Neumann in un’unica traiettoria che mostra come l’informatica non sia mai stata una scienza “neutrale”, ma una tecnologia del controllo, fin dalle sue origini. Paura mostra come anche i paradigmi più avanzati (machine learning, IA generativa, reti neurali) non sfuggano a questa logica di dominio: non imitano l’uomo, ma lo riorganizzano, lo sostituiscono, lo normalizzano.

L’aggancio al concetto marxiano di “lavoratore complessivo” e al ritorno della “pausa di Engels” è brillante. La riflessione su un possibile scenario in cui l’IA generi i propri dati e migliori sé stessa senza input umano apre interrogativi radicali sulla fine della centralità antropica e sulla possibilità di una futura “alienazione algoritmica”.

Tuttavia, il testo manca forse di un approfondimento normativo o propositivo: sebbene vi sia un appello finale alla consapevolezza, resta in ombra la domanda su come agire politicamente di fronte a un mondo sempre più modellato dagli automatismi statistici e dalle architetture del dato.

In definitiva, il saggio è un ottimo esempio di teoria critica applicata alle tecnologie emergenti, e rappresenta un contributo prezioso per comprendere le sfide sistemiche poste dall’intelligenza artificiale. Invita a riconsiderare l’IA non come soggetto da “umanizzare”, ma come infrastruttura del nuovo ordine del mondo, potenzialmente post-umano e post-lavorativo.


Se desideri, posso trasformare questo materiale in un paper, una presentazione accademica o aggiungere un confronto con altri autori critici come Shoshana Zuboff, Nick Srnicek, Evgeny Morozov o Antonio Negri. Fammi sapere.

====================

Perfetto. Procedo ora con un confronto critico tra il saggio di Roberto Paura (e la teoria di Matteo Pasquinelli da cui trae spunto) e altri autori significativi che si sono occupati di IA, piattaforme digitali e capitalismo algoritmico: Shoshana Zuboff, Nick Srnicek, Evgeny Morozov e Antonio Negri. La prospettiva sarà comparativa e tematica.


CONFRONTO CRITICO CON ALTRI AUTORI

1. Pasquinelli/Paura vs. Shoshana Zuboff – L’automazione come governance e il capitalismo della sorveglianza

Zuboff, ne Il capitalismo della sorveglianza (2019), analizza le piattaforme digitali come strumenti per prevedere e modellare il comportamento umano. Google, Facebook, Amazon non vendono servizi: raccolgono surplus comportamentale per convertirlo in profitto. La logica predittiva dell’IA è qui strumento di espropriazione dell’intimità e colonizzazione della soggettività.

Convergenze:

  • Entrambi gli approcci riconoscono che l’IA non nasce per imitare l’intelligenza, ma per estrarre valore e disciplinare l’organizzazione sociale.

  • La “visione statistica del mondo” evocata da Pasquinelli coincide con la logica predittiva denunciata da Zuboff.

Divergenze:

  • Zuboff conserva un’implicita nostalgia per un capitalismo "liberale" ante-Google, e auspica una regolazione giuridica e democratica della sorveglianza.

  • Pasquinelli (e Paura) operano una critica sistemica, non riformista: l’IA è coestensiva al modo di produzione capitalistico stesso, non solo a un suo esito degenerativo.


2. Pasquinelli/Paura vs. Nick Srnicek – Il capitalismo delle piattaforme come fase storica

In Platform Capitalism (2016), Nick Srnicek offre una tipologia delle piattaforme (pubblicitarie, cloud, industriali, ecc.) e le definisce infrastrutture di estrazione, calcolo e controllo che rispondono a crisi sistemiche del capitalismo (bassi profitti, stagnazione, sovrapproduzione). Le IA servono a gestire dati in eccesso e trasformarli in vantaggio competitivo.

Convergenze:

  • Entrambi vedono l’IA come tecnologia funzionale all’economia delle piattaforme, non neutra né autonoma.

  • Paura richiama direttamente il fatto che la delocalizzazione non funziona più: anche per Srnicek, la piattaformizzazione è un tentativo di riorganizzare la produzione dopo la crisi delle supply chain globali.

Divergenze:

  • Srnicek adotta un tono più neutrale e strutturale, mentre Paura (con Pasquinelli) spinge per una genealogia critica, che evidenzia la vocazione di dominio insita nelle tecnologie digitali.

  • Srnicek propone soluzioni politiche post-capitalistiche (come il “post-work”), ma Paura si concentra sul rischio di naturalizzazione del dominio algoritmico, senza definire strategie concrete.


3. Pasquinelli/Paura vs. Evgeny Morozov – Critica dell’ideologia digitale

Evgeny Morozov, nel suo lavoro su The Net Delusion e nei successivi articoli su The Guardian e The Baffler, ha smontato l’ideologia dell’innovazione digitale come intrinsecamente emancipatoria. Parla di “soluzionismo tecnologico”: la pretesa che ogni problema sociale possa essere risolto da un algoritmo, alimentando una cultura anti-politica e tecnocratica.

Convergenze:

  • Pasquinelli e Paura si muovono nello stesso campo: il rifiuto del mito prometeico dell’IA, già anticipato dalla nota di Ada Lovelace.

  • Entrambi denunciano la conversione della statistica in norma sociale, in cui ciò che è più frequente diventa ciò che è giusto.

Divergenze:

  • Morozov si concentra maggiormente sull’aspetto ideologico e discorsivo delle big tech (narrazioni, storytelling), mentre Paura scava nei meccanismi strutturali del lavoro e del capitale.

  • Morozov è più giornalistico e “libertario di sinistra”; Pasquinelli opera una decostruzione più filosofica e marxista.


4. Pasquinelli/Paura vs. Antonio Negri – IA, moltitudine e biopolitica

Negri, insieme a Michael Hardt, in opere come Impero, Moltitudine e Assemblea, interpreta la tecnologia come campo di lotta tra potere costituente e potere costituito. Anche l’IA, quindi, è ambivalente: può essere strumento di dominio biopolitico, ma anche occasione per l’emergere di intelligenze collettive diffuse.

Convergenze:

  • Paura e Pasquinelli riconoscono che l’IA nasce per organizzare e disciplinare la cooperazione sociale – un’idea perfettamente compatibile con la nozione di “moltitudine produttiva” di Negri.

  • Entrambi criticano la sussunzione dell’intelligenza collettiva nella logica del capitale.

Divergenze:

  • Negri mantiene una speranza insurrezionale, vede la possibilità di rovesciare l’uso capitalistico dell’IA (es. “bio-hackare” il sistema).

  • Paura, pur terminando con un appello politico, appare più pessimista circa l’effettiva capacità dell’umano di sottrarsi a una governance algoritmica che lo normalizza e lo rende superfluo.


Conclusione del confronto

Il saggio di Paura, ispirato dalla teoria di Pasquinelli, si colloca in una linea marxista post-strutturalista, più vicina a una genealogia foucaultiana dell’automazione che a una semplice denuncia morale delle big tech. Rispetto a Zuboff, Srnicek, Morozov e Negri, si distingue per:

  • l’attenzione storico-materialistica ai rapporti tra tecnologia e organizzazione del lavoro;

  • la lettura sociomorfa dell’IA, come specchio delle esigenze sistemiche del capitalismo e non come incidente o deviazione tecnica;

  • l’interrogativo finale sulla fagocitazione dell’umano, non più solo come lavoratore, ma anche come utente, soggetto, cittadino, linguaggio.

Se gli altri autori offrono strumenti per regolare, denunciare o talvolta “riappropriarsi” della tecnologia, Paura (con Pasquinelli) ci mette in guardia contro un rischio più radicale: che la realtà stessa venga riscritta secondo la logica degli algoritmi. In questo senso, l’IA non è solo un oggetto da governare, ma una forma di governo.


Se vuoi, posso ora integrare un paragrafo conclusive in stile saggio accademico oppure trasformare tutto questo in un'introduzione strutturata per un articolo. Vuoi procedere in questa direzione?

=========================

Ecco la trasformazione in un’introduzione strutturata per un articolo, che puoi utilizzare come apertura di un saggio critico su intelligenza artificiale, capitalismo delle piattaforme e trasformazioni del lavoro:


Introduzione

Nel tempo delle intelligenze artificiali generative, non siamo di fronte a una semplice innovazione tecnologica, ma all’emergere di un nuovo ordine del mondo, in cui logica algoritmica, automazione del lavoro e governance digitale convergono in una forma inedita di potere. Il saggio di Roberto Paura, Il nuovo ordine del mondo al tempo delle IA generative, si colloca in questo snodo epocale, proponendo una lettura genealogica e critica dell’evoluzione dell’IA, fondata sul pensiero di Matteo Pasquinelli. A partire dalla celebre “nota G” di Ada Lovelace, che già nel 1843 metteva in discussione l’idea di una macchina creativa, Paura ricostruisce un filo rosso che unisce le macchine di Babbage e Turing al machine learning contemporaneo, svelandone la vocazione originaria: non imitare la mente umana, ma codificare e controllare l’intelligenza collettiva, ottimizzando la divisione sociale del lavoro.

Secondo questa impostazione, l’IA non è una tecnologia biomorfa, ma sociomorfa: nasce per rispondere alle esigenze sistemiche del capitalismo industriale prima, e delle piattaforme digitali poi. La sua funzione è quella di automatizzare la cooperazione sociale, estrarre valore dai dati e ridefinire i rapporti tra capitale, lavoro e conoscenza. In questa chiave, le IA generative rappresentano il punto di convergenza tra la razionalità statistica e la governance algoritmica: dispositivi progettati non per aumentare la libertà umana, ma per modellare la realtà secondo criteri di efficienza, previsione e controllo.

Questo approccio si distingue nettamente da altre letture critiche dell’intelligenza artificiale. Se Shoshana Zuboff denuncia il capitalismo della sorveglianza come deviazione iper-liberista e auspica una regolazione giuridica, Paura e Pasquinelli evidenziano come l’IA sia costitutivamente parte del progetto capitalistico, sin dalle sue origini. Se Nick Srnicek analizza l’economia delle piattaforme in termini tipologici e funzionali, Paura ne coglie la radice biopolitica e disciplinare. Se Evgeny Morozov smaschera l’ideologia soluzionista delle big tech, Paura ne mette a nudo l’apparato produttivo sottostante. E se Antonio Negri intravede nella tecnologia una possibilità di riscatto della “moltitudine”, il saggio qui discusso avverte sul rischio di una definitiva marginalizzazione del soggetto umano in un mondo riscritto secondo logiche post-antropocentriche.

In questa prospettiva, il ritorno della “pausa di Engels” – la divergenza tra aumento della produttività e stagnazione dei salari – non è un’anomalia, ma un tratto strutturale della nuova fase del capitalismo algoritmico. L’intelligenza artificiale, come nel caso delle macchine a vapore durante la Rivoluzione industriale, non è un fattore autonomo: è la risposta tecnica a una crisi del sistema. Ma se allora la trasformazione portò, seppur tardivamente, alla nascita di una classe media istruita e a un aumento dei salari, oggi ci si interroga se l’IA non possa invece inaugurare una fase in cui anche l’ultimo ingranaggio umano – l’utente – diventa superfluo.

In un mondo modellato da reti neurali statistiche, dove la statistica diventa coscienza e l’intelligenza artificiale sostituisce l’intelligenza collettiva, la posta in gioco è la capacità politica di reagire a questa automazione del reale. Il machine learning, avverte Pasquinelli, è già oggi “una prova tecnica dell’integrazione tra automazione del lavoro e governance sociale”. Sta a noi decidere se accettare passivamente questa traiettoria o se costruire un’alternativa culturale, politica e istituzionale capace di riaffermare il primato dell’umano in un mondo sempre più dominato dall’algoritmo.


Se vuoi, posso ora proseguire con la sezione successiva dell’articolo (es. Il paradigma sociomorfo dell’IA, oppure La nuova divisione del lavoro nel capitalismo delle piattaforme) oppure strutturare l’intero articolo con titoli e sottotitoli. Vuoi procedere in questa direzione?

=====================

Perfetto. Di seguito trovi la stesura completa del saggio strutturato, con titoli e sottotitoli, a partire dall’introduzione appena scritta. Il testo può essere adattato in base alla lunghezza desiderata per pubblicazione, conferenza o uso accademico.


Intelligenza Artificiale e Capitale: Il nuovo ordine sociomorfo del mondo

Introduzione

Nel tempo delle intelligenze artificiali generative, non siamo di fronte a una semplice innovazione tecnologica, ma all’emergere di un nuovo ordine del mondo, in cui logica algoritmica, automazione del lavoro e governance digitale convergono in una forma inedita di potere. Il saggio di Roberto Paura, Il nuovo ordine del mondo al tempo delle IA generative, si colloca in questo snodo epocale, proponendo una lettura genealogica e critica dell’evoluzione dell’IA, fondata sul pensiero di Matteo Pasquinelli. A partire dalla celebre “nota G” di Ada Lovelace, che già nel 1843 metteva in discussione l’idea di una macchina creativa, Paura ricostruisce un filo rosso che unisce le macchine di Babbage e Turing al machine learning contemporaneo, svelandone la vocazione originaria: non imitare la mente umana, ma codificare e controllare l’intelligenza collettiva, ottimizzando la divisione sociale del lavoro.

1. La genealogia critica dell’IA: da Lovelace a Rosenblatt

Contrariamente a una narrazione dominante, che considera l’IA come esito del tentativo di replicare l’intelligenza umana, Pasquinelli e Paura mostrano come la sua origine sia intimamente connessa alle esigenze dell’organizzazione del lavoro. La celebre “nota G” di Ada Lovelace già smentiva l’idea che una macchina potesse generare nuove relazioni logiche: essa poteva solo fare ciò che le veniva comandato. Tuttavia, con la svolta delle reti neurali, in particolare il Percettrone di Rosenblatt (1957), emerge un nuovo paradigma auto-organizzante, che abbandona l’approccio simbolico-top down in favore di un modello bottom-up di apprendimento statistico.

Questa cesura epistemologica segna un passaggio cruciale: l’intelligenza artificiale smette di essere uno strumento per risolvere problemi logici e diventa una tecnologia adattiva, capace di apprendere, ottimizzare, anticipare. Come osservava von Neumann, il cervello non è un sistema computazionale, ma probabilistico; e l’IA, per diventare veramente “intelligente”, deve imparare a gestire l’incertezza, non a eliminarla.

2. L’intelligenza artificiale come dispositivo sociomorfo

Pasquinelli conia un concetto chiave: l’IA non è biomorfa, cioè orientata a imitare il cervello umano, ma sociomorfa – modellata sulla cooperazione sociale e progettata per codificarla e renderla produttiva. In questo senso, l’IA si inserisce nella lunga tradizione di macchine che, a partire da Babbage, sono state pensate come strumenti per ottimizzare la divisione del lavoro. Il motore analitico, la macchina di Turing, fino agli attuali modelli generativi, servono a mappare, organizzare e sostituire processi cognitivi collettivi.

Questa lettura rovescia l’ontologia stessa dell’IA: non più intelligenza simulata, ma automazione del sociale. In questo quadro, la tecnologia non precede la trasformazione del lavoro: ne è l’effetto e il supporto. Le IA generative sono nate per rispondere alle esigenze della piattaformizzazione capitalistica: dalla logistica alla pubblicità, dall’informazione alla creazione di contenuti.

3. Capitale e automazione: la trappola della tecnologia

Paura riprende la tesi di Carl Benedikt Frey sulla trappola della tecnologia, ovvero la dinamica storica per cui le innovazioni non sono determinate dall’ingegno umano, ma dalle necessità del capitale. La macchina a vapore fu una risposta all’aumento dei salari in Inghilterra. Oggi, la crisi della delocalizzazione e l’aumento del costo del lavoro nei paesi emergenti spingono verso una nuova ondata di automazione, questa volta gestita attraverso le piattaforme digitali.

La conseguenza è una ridefinizione della struttura produttiva: la manifattura cede il passo alla data extraction, e il valore si accumula attraverso il controllo di flussi informativi. Le IA generative non sono un’espressione del progresso umano, ma un apparato tecnico per estorcere valore dalla soggettività diffusa, fino a sostituirla. Da qui l’enorme potere concentrato nelle mani di chi controlla questi sistemi: tra i dieci uomini più ricchi del mondo, sette sono leader di piattaforme digitali.

4. La nuova “pausa di Engels” e la sostituibilità del soggetto

Frey individua nel ritorno della cosiddetta pausa di Engels – il divario tra aumento della produttività e stagnazione dei salari – un segnale del carattere sostitutivo dell’attuale innovazione tecnologica. Come nella prima rivoluzione industriale, le macchine generative non integrano, ma sostituiscono il lavoro umano. L’esistenza di milioni di “lavoratori invisibili” (addetti al tagging, magazzinieri, mechanical turks) è solo temporanea: l’obiettivo è eliminarli a favore di sistemi auto-alimentati e auto-miglioranti.

In questo scenario, si affaccia un’interrogazione radicale: cosa accade se le IA possono generare dati sintetici, imparare da sé, migliorarsi senza input umano? Il soggetto rischia non solo di essere espropriato del proprio lavoro, ma del proprio ruolo nella realtà. La statistica, trasformata in modello di coscienza, diventa norma sociale; il mondo stesso si adatta ai parametri delle macchine.

5. IA e governance: un confronto con le letture critiche contemporanee

Questa interpretazione si distingue da altre voci della critica tecnologica. Shoshana Zuboff, nel suo Il capitalismo della sorveglianza, denuncia la cattura della soggettività a fini predittivi e auspica una regolazione democratica. Ma Pasquinelli mostra come la vocazione disciplinare dell’IA sia originaria, e non un abuso recente. Nick Srnicek, in Platform Capitalism, offre una tipologia delle piattaforme, ma evita una critica radicale alla struttura stessa del potere algoritmico. Evgeny Morozov, pur smascherando l’ideologia soluzionista, resta ancorato a un approccio più giornalistico e discorsivo. Solo Antonio Negri, con la sua idea di moltitudine e biopolitica, apre alla possibilità di “riappropriazione” della tecnologia come strumento di cooperazione e liberazione. Ma Paura rimane più scettico: la logica sociomorfa delle reti neurali potrebbe rendere irrilevante la soggettività umana, perfino come utente.

Conclusione: una nuova macchina del mondo

Il saggio di Paura, attraverso l’analisi critica di Pasquinelli, ci offre una chiave interpretativa potente: l’IA non è un agente neutro né un soggetto autonomo, ma una forma storica del potere. È la nuova “macchina del mondo” che riorganizza la realtà sulla base di criteri statistici, funzionali al dominio capitalistico. Come le macchine a vapore hanno generato il taylorismo, le reti neurali generano l’automazione del lavoro cognitivo e la governance algoritmica del sociale.

Siamo di fronte a un bivio: o lasciamo che questo processo si compia fino alla marginalizzazione completa del soggetto umano, o proviamo a intervenire politicamente, culturalmente, filosoficamente. Il tempo per decidere non è infinito. E forse, come suggerisce l’ultima frase del saggio, l’umanità dovrà lottare non per la libertà, ma per il diritto a contare ancora qualcosa nel mondo degli algoritmi.


Bibliografia essenziale

  • Roberto Paura, Il nuovo ordine del mondo al tempo delle IA generative, 2025.

  • Matteo Pasquinelli, Nell’occhio dell’algoritmo, 2025.

  • Shoshana Zuboff, Il capitalismo della sorveglianza, Luiss University Press, 2020.

  • Nick Srnicek, Platform Capitalism, Polity Press, 2016.

  • Carl Benedikt Frey, La trappola della tecnologia, FrancoAngeli, 2020.

  • Antonio Negri e Michael Hardt, Impero, Rizzoli, 2002.

  • John von Neumann, Computer e cervello, Il Saggiatore, 2021.

  • Evgeny Morozov, The Net Delusion, PublicAffairs, 2011.

  • George Dyson, La cattedrale di Turing, Codice, 2012.


Fammi sapere se vuoi alleggerire o espandere alcune sezioni, oppure se desideri una versione per pubblicazione divulgativa, accademica o giornalistica.


Commenti

Post popolari in questo blog

SACHS ALLA UE

CAPITALISMI GLOBALI

"La pelle", di Maurizio Ferraris