Verso una intelligenza ibrida: umani, AI e nuove forme cognitive

 

FONTE

Verso una intelligenza ibrida: umani, AI e nuove forme cognitive 

Verso una intelligenza ibrida: umani, AI e nuove forme cognitive

Storia di Carlo Maria Medaglia • 3 sett. 

C’è una vecchia storia di caccia che gli antropologi raccontano quando vogliono spiegare la differenza tra intelligenza individuale e intelligenza collettiva. I Kua del Botswana, nei decenni in cui potevano ancora praticare la caccia tradizionale, non erano fisicamente superiori alle loro prede. Erano però capaci di qualcosa di unico: distribuire l’osservazione, combinare le percezioni di più individui e costruire una rappresentazione del territorio che nessuno di loro avrebbe potuto elaborare da solo. Cacciavano con un’intelligenza che non risiedeva in nessun cervello in particolare, ma nell’interazione tra cervelli diversi. Il dibattito contemporaneo sull’intelligenza artificiale, concentrato ossessivamente sulla domanda se la macchina sostituirà l’uomo, dimentica che questa domanda è mal posta. La questione più interessante, e più urgente, è un’altra: come funziona un sistema cognitivo distribuito tra forme di intelligenza diverse, e chi ne governa le regole?

Sostituzione o integrazione: una distinzione che cambia tutto

Nel pieno della trasformazione in atto, emerge una prospettiva che supera il confronto binario tra uomo e macchina: quella di una intelligenza ibrida, nella quale diverse forme di elaborazione si integrano per generare capacità decisionali nuove. Non si tratta di una visione consolatoria né di un eufemismo per mascherare la disruption. Si tratta di un dato empirico che la ricerca sta documentando con sempre maggiore precisione. Secondo un’analisi del McKinsey Global Institute pubblicata nel novembre 2025, i sistemi umano-AI più efficaci non sono quelli in cui l’automazione è massima, ma quelli progettati attorno alle forze complementari delle due parti: l’AI eccelle nell’analisi di grandi volumi di dati, nell’individuazione di pattern nascosti e nella simulazione di scenari complessi, mentre l’uomo mantiene una superiorità nella comprensione del contesto, nella gestione delle dimensioni etiche e relazionali e nella capacità di attribuire significato. L’intelligenza ibrida nasce dall’incontro strutturato tra queste due dimensioni, non dalla somma casuale di strumenti.

L’IBM Institute for Business Value ha documentato come le organizzazioni con programmi solidi di riqualificazione del personale in funzione della collaborazione uomo-AI riportino risultati significativamente superiori rispetto a quelle che si limitano a introdurre tecnologie senza ridisegnare i processi. La domanda di AI fluency, ovvero la capacità di lavorare efficacemente con sistemi intelligenti, è cresciuta di sette volte negli ultimi due anni secondo gli stessi dati IBM. Non è un dettaglio marginale: indica che il fattore critico non è l’accesso alla tecnologia, ma la qualità dell’integrazione umana con essa.

Dal dato all’azione: dove l’intelligenza ibrida funziona già

Questo paradigma sta trovando applicazione concreta in settori molto diversi tra loro, e vale la pena nominarne alcuni con precisione, senza cedere alla vaghezza. Nei servizi avanzati e nel BPO (Business Process Outsourcing) evoluto, l’AI supporta gli operatori nella gestione e classificazione delle informazioni, mentre l’interazione con il cliente resta affidata alla capacità umana di interpretare bisogni e contesti non codificabili. Nella sanità, i sistemi di supporto alle decisioni cliniche affiancano i medici nell’analisi diagnostica, senza sostituirne il giudizio: il caso della radiologia, dove i modelli di visione artificiale raggiungono un’accuratezza comparabile a quella degli specialisti su compiti specifici ma richiedono comunque la validazione clinica, è ormai un riferimento stabile nella letteratura. Nella consulenza strategica, l’AI consente di esplorare scenari alternativi e strutturare informazioni, mentre la definizione delle strategie resta legata alla capacità umana di integrare visioni e responsabilità. In tutti questi casi, il valore non emerge dalla tecnologia in sé, ma dalla qualità dell’architettura che la connette al giudizio umano. Non è la macchina a decidere, ma la decisione cambia forma grazie alla macchina.

La governance entra in campo: l’AI Act e la responsabilità distribuita

Il tema si intreccia con quello della regolazione in modo che non può essere liquidato con un richiamo generico alle norme. Il Regolamento (UE) 2024/1689, l’AI Act entrato in vigore il 1° agosto 2024, pone al centro della sua architettura due principi che coincidono esattamente con la logica dell’intelligenza ibrida: la supervisione umana e la responsabilità. Per i sistemi classificati ad alto rischio, che includono quelli impiegati in ambito sanitario, nella gestione delle infrastrutture critiche e nei processi decisionali che incidono sui diritti delle persone, il regolamento stabilisce che il controllo umano non è una garanzia opzionale ma una condizione strutturale. La responsabilità resta umana anche quando la capacità di analisi è amplificata dalla macchina, e questa formulazione non è retorica: è la traduzione giuridica di un principio cognitivo.

La governance dell’AI, in questo quadro, non è una questione normativa esterna all’organizzazione, ma una componente strutturale della sua strategia. Le imprese che trattano l’AI Act come un obbligo di compliance da gestire a margine dei processi rischiano di perdere l’occasione più interessante che il quadro regolatorio offre: quella di usare le obbligazioni di trasparenza, documentazione e supervisione come leva per riprogettare in modo più consapevole l’architettura delle proprie decisioni.

Il rischio silenzioso: la delega eccessiva e la perdita di capacità critica

Man mano che l’AI assume un ruolo più rilevante nei processi decisionali, cresce un rischio che la letteratura accademica ha iniziato a nominare con termini precisi: cognitive offloading e algorithm aversion sono le due facce dello stesso problema. La prima descrive la tendenza a delegare al sistema compiti che richiederebbero elaborazione critica, con il risultato di ridurre progressivamente la propria capacità di valutazione autonoma. La seconda descrive la reazione opposta, quella di rifiutare sistematicamente le indicazioni dell’AI per una sfiducia di principio, perdendo i vantaggi che la collaborazione offrirebbe. Entrambi i fenomeni, documentati da una crescente letteratura in Information Systems Research e nelle principali riviste di management, indicano che il problema non è tecnologico ma cognitivo e organizzativo: riguarda il modo in cui le persone e le istituzioni interagiscono con sistemi che producono output complessi e non sempre interpretabili.

Per questo motivo, la distinzione tra intelligenza ibrida come collaborazione consapevole e intelligenza ibrida come delega inconsapevole non è accademica. È la differenza tra un sistema che amplifica la capacità di giudizio e uno che la erode silenziosamente, fino al momento in cui la macchina suggerisce qualcosa che nessuno è più in grado di valutare criticamente.

Ridisegnare i processi, non solo adottare strumenti

Le strutture organizzative tradizionali, basate su gerarchie e flussi informativi sequenziali, faticano a integrare sistemi che operano in tempo reale e producono output complessi. Il passaggio verso l’intelligenza ibrida richiede una revisione profonda di questi modelli. L’AI non può più essere trattata come un supporto a valle dei processi decisionali, aggiunta alla fine di un flusso già definito. Deve essere integrata a monte, come componente che contribuisce a definire le opzioni disponibili, a strutturare le informazioni rilevanti, a simulare le conseguenze delle scelte. Questo implica la definizione di nuovi ruoli, tra cui quelli legati alla validazione dei modelli, alla gestione del rischio algoritmico e alla governance dei dati, e investimenti in competenze che non sono solo tecniche ma, come li definisce la ricerca più recente, cognitive e integrative: la capacità di muoversi tra dimensioni diverse, comprendendo sia il funzionamento dei sistemi sia le logiche dei processi organizzativi e sociali in cui operano.

Il World Economic Forum ha stimato che il 39% delle competenze chiave richieste dal mercato del lavoro cambierà nei prossimi quattro anni. Non si tratta di una profezia apocalittica sulla fine del lavoro umano, ma di un’indicazione precisa su dove devono orientarsi gli investimenti in formazione e sviluppo professionale. Le organizzazioni che riusciranno a costruire quella capacità diffusa di interazione con sistemi complessi avranno un vantaggio strutturale nella gestione di contesti sempre più dinamici. Le altre rischiano di utilizzare l’AI come una tecnologia di superficie, raccogliendo una frazione marginale del valore che essa potrebbe generare.

Un nuovo paradigma culturale, non solo tecnologico

L’integrazione tra AI e cognizione umana, insieme alla valorizzazione di diverse modalità cognitive, porta a una visione più articolata di cosa significhi essere intelligenti. Non esiste più un unico modello di riferimento, un’intelligenza unitaria e misurabile su un’unica scala, ma una pluralità di forme che possono essere combinate in modi diversi a seconda del contesto e delle finalità. In questo senso, l’intelligenza ibrida non è solo una soluzione tecnologica, ma un nuovo paradigma culturale. L’intelligenza non è più una proprietà individuale, ma una capacità distribuita tra sistemi e soggetti diversi, con tutto ciò che questo implica in termini di responsabilità, governance e significato.

Tornando ai Kua del Botswana: la loro intelligenza distribuita funzionava perché ciascuno sapeva con chiarezza quale fosse il suo ruolo, cosa poteva vedere e cosa non poteva vedere, e chi aveva l’autorità di decidere quando agire. L’intelligenza ibrida, per funzionare, richiede la stessa chiarezza. Non basta avere accesso alla tecnologia. Occorre sapere chi è responsabile delle decisioni, come vengono validate le informazioni, quali sono i meccanismi di controllo e dove si situa, in ogni processo, il presidio umano irriducibile. Perché in un contesto in cui l’intelligenza diventa sempre più distribuita, la vera differenza non sarà nella tecnologia disponibile, ma nella capacità di governare l’interazione tra le diverse forme di intelligenza e trasformarla in valore concreto per le organizzazioni e per la società.

=================================

CLAUDE

Certo! Ecco tutto quello che hai richiesto.


OCCHIELLO (max 350 caratteri)

Né sostituzione né opposizione: il futuro del lavoro cognitivo passa dall'integrazione strutturata tra intelligenza umana e artificiale. Un paradigma nuovo che richiede governance, nuove competenze e la chiarezza su chi, alla fine, è responsabile delle decisioni.


SINTESI PER PUNTI

  • Il dibattito "uomo vs macchina" è mal posto: la vera sfida è progettare sistemi ibridi in cui le due forme di intelligenza si completano
  • L'AI eccelle nell'analisi di grandi dati e nel riconoscimento di pattern; l'uomo mantiene la superiorità nel contesto, nell'etica e nel significato
  • Le organizzazioni che integrano AI nei processi (non solo negli strumenti) ottengono risultati significativamente superiori
  • L'AI Act europeo sancisce che la supervisione umana nei sistemi ad alto rischio non è opzionale, ma strutturale
  • I rischi principali non sono tecnologici ma cognitivi: la delega eccessiva (cognitive offloading) e il rifiuto pregiudiziale (algorithm aversion)
  • Il WEF stima che il 39% delle competenze chiave cambierà nei prossimi quattro anni: vince chi investe in formazione integrativa
  • L'intelligenza distribuita funziona solo se è chiaro chi decide, chi controlla e dove risiede la responsabilità umana irriducibile

ELENCO CONCETTI BASE---

DISSERTAZIONE


Chi governa le macchine che pensano con noi

La domanda che ha dominato il dibattito pubblico sull'intelligenza artificiale — la macchina sostituirà l'uomo? — rivela più delle nostre ansie che della realtà in trasformazione. È una domanda binaria applicata a un fenomeno che è, per sua natura, relazionale.

L'articolo di Carlo Maria Medaglia propone una correzione di rotta necessaria: l'unità di analisi non è né l'umano né la macchina presa singolarmente, ma il sistema che i due formano quando interagiscono in modo strutturato. L'immagine dei cacciatori Kua del Botswana non è un abbellimento retorico, ma un argomento teorico preciso: l'intelligenza collettiva distribuita non è la somma delle intelligenze individuali, ma una proprietà emergente dell'interazione. E questa proprietà non si genera da sola — richiede ruoli chiari, regole condivise, e consapevolezza di cosa ciascun agente può e non può vedere.

È qui che l'analisi si fa più interessante, e anche più esigente. Perché l'intelligenza ibrida non è un dato di fatto tecnologico, ma una scelta organizzativa e culturale. Le ricerche citate — McKinsey, IBM, World Economic Forum — convergono su un punto: il valore non emerge dall'introduzione della tecnologia, ma dalla qualità dell'architettura umana che la circonda. Organizzazioni che integrano l'AI ridisegnando i processi ottengono risultati nettamente superiori a quelle che si limitano ad adottare strumenti senza ripensare il modo in cui le decisioni vengono prese.

Il contributo più acuto dell'articolo riguarda però i rischi silenziosi: il cognitive offloading e l'algorithm aversion. Il primo è sottovalutato perché produce effetti lenti e invisibili — la graduale perdita di capacità critica in chi delega all'AI ciò che dovrebbe elaborare. Il secondo è spesso frainteso come prudenza, mentre è semplicemente un'altra forma di abdicazione, quella che rinuncia ai vantaggi della collaborazione per diffidenza di principio. Entrambi i fenomeni segnalano che il problema centrale non è tecnologico ma cognitivo: riguarda il modo in cui esseri umani e istituzioni mantengono — o perdono — la capacità di stare dentro un sistema complesso senza esserne travolti.

L'AI Act europeo, in questo quadro, non è solo un vincolo normativo: è la traduzione giuridica di un principio cognitivo. Stabilire che la responsabilità resta umana anche quando la capacità di analisi è amplificata dalla macchina significa riconoscere che la governance dell'intelligenza distribuita è, prima di tutto, una questione di design. Non si tratta di limitare la tecnologia, ma di non confondere l'amplificazione del giudizio con la sua delega.

La conclusione implicita dell'articolo — e la sfida più concreta per le organizzazioni — è che l'intelligenza ibrida richiede lo stesso tipo di chiarezza che rendeva funzionale la caccia distribuita dei Kua: sapere chi osserva cosa, chi integra le informazioni, e chi, alla fine, ha l'autorità e la responsabilità di decidere quando agire. In un'epoca in cui l'intelligenza diventa sempre più distribuita, questa chiarezza non è un dettaglio operativo. È la condizione stessa perché il sistema funzioni.

==================================



IL GENERAL INTELLECT E L'INTELLIGENZA IBRIDA

Quando Marx incontra le macchine che pensano


Nel 1858, nei Grundrisse, Karl Marx abbozzò un concetto che avrebbe atteso oltre un secolo e mezzo per diventare pienamente comprensibile. Lo chiamò General Intellect: l'idea che il sapere collettivo dell'umanità — la scienza, la tecnica, l'organizzazione sociale della conoscenza — si incarnasse progressivamente nelle macchine, diventando una forza produttiva autonoma. Marx intuiva che il momento in cui il sapere accumulato dalla specie avesse trovato forma meccanica, il lavoro individuale sarebbe diventato marginale rispetto a quella intelligenza oggettivata. Scriveva di un futuro. Noi ci viviamo dentro.

Il General Intellect non è una metafora romantica. È una categoria analitica che descrive la trasformazione del sapere da attributo individuale a infrastruttura collettiva. Quando una macchina incorpora millenni di conoscenza medica e la applica in tempo reale alla diagnostica per immagini, non sta semplicemente automatizzando un compito: sta materializzando il sapere cumulativo di generazioni di clinici, ricercatori, anatomisti. Il singolo radiologo che interagisce con quel sistema non si confronta con uno strumento, ma con una forma condensata di intelligenza collettiva che lo precede e lo supera in specifici domini.

È in questa luce che l'intelligenza ibrida descritta nell'articolo di Medaglia assume una profondità diversa. Non si tratta soltanto di un problema di design organizzativo o di architettura decisionale — per quanto questi aspetti siano reali e urgenti. Si tratta di una trasformazione nella natura stessa del rapporto tra soggetto cognitivo e sapere oggettivato. L'AI non è uno strumento nel senso tradizionale del termine, come un martello o anche un foglio di calcolo. È il General Intellect reso conversazionale, interattivo, adattivo: il sapere collettivo che risponde, che anticipa, che genera.

Questo cambia radicalmente la posta in gioco. Il rischio del cognitive offloading, che nell'articolo viene analizzato come fenomeno individuale e organizzativo, assume nella prospettiva del General Intellect una dimensione storica più ampia. Quando il sapere si oggettiva nelle macchine, la domanda non è solo se il singolo operatore mantiene la propria capacità critica, ma cosa accade alla riproduzione sociale della conoscenza. Le competenze che non vengono più esercitate non si perdono solo individualmente: si perdono collettivamente. E un sapere che sopravvive soltanto nelle macchine, senza più trovare presidio nella pratica umana viva, è un sapere che la società non governa più — lo subisce.

I pensatori italiani che negli anni Ottanta e Novanta ripresero e svilupparono il concetto marxiano — da Paolo Virno a Maurizio Lazzarato, nell'alveo di quello che venne chiamato operaismo o post-operaismo — vi aggiungevano una dimensione che Marx non poteva vedere: il fatto che il General Intellect non si oggettiva solo nelle macchine, ma anche nelle forme di cooperazione sociale, nel linguaggio, nella capacità relazionale e comunicativa che diventa essa stessa produttiva. Il lavoro immateriale, lo chiamavano. Ed è precisamente questa dimensione — la cognizione situata, il giudizio contestuale, la capacità di attribuire significato — che l'articolo di Medaglia identifica come il contributo irriducibile dell'umano nell'intelligenza ibrida.

La tensione è allora questa: il General Intellect tende storicamente a sottrarre all'individuo le funzioni che ha già incorporato, lasciandogli quelle residuali che non è ancora riuscito a formalizzare. Ma nell'era dell'AI generativa, la frontiera di ciò che può essere formalizzato si sposta con una velocità senza precedenti. Le funzioni cognitive che sembravano il nucleo duro dell'apporto umano — sintesi, interpretazione, produzione di testo, ragionamento analogico — vengono via via assorbite dal sistema. La domanda che il General Intellect pone oggi non è più quali lavori sopravvivranno, ma quale forma di soggettività cognitiva rimane possibile quando il sapere oggettivato supera in estensione e velocità qualsiasi singolo soggetto.

La risposta che l'intelligenza ibrida suggerisce — e che la prospettiva del General Intellect permette di approfondire — non è consolatoria né apocalittica. È strutturale. Se il sapere collettivo si oggettiva nelle macchine, allora la posta politica e organizzativa non è frenare questo processo, ma governarne le condizioni. Chi controlla il General Intellect digitale? Chi decide quali saperi vengono incorporati nei modelli, con quali dati, secondo quali criteri di validazione? Chi ha accesso all'intelligenza distribuita e chi ne viene escluso?

L'AI Act europeo, riletto in questa chiave, non è solo una norma tecnica sulla supervisione umana dei sistemi ad alto rischio. È un tentativo — parziale, imperfetto, ma significativo — di rispondere alla domanda marxiana sulla governance del General Intellect: di stabilire che il sapere oggettivato nelle macchine non può essere sottratto al controllo sociale, che la responsabilità non può dissolversi nella complessità algoritmica, che esiste un presidio umano che non è negoziabile.

I cacciatori Kua del Botswana, nell'immagine con cui Medaglia apre e chiude il suo articolo, distribuivano l'intelligenza tra cervelli diversi sapendo con chiarezza chi aveva il ruolo di sintesi e di decisione finale. Il General Intellect digitale distribuisce il sapere tra miliardi di parametri addestrati su trilioni di testi prodotti dall'umanità intera. La domanda che Marx non poteva ancora formulare, e che noi siamo chiamati ad affrontare, è se questa distribuzione produca ancora un soggetto collettivo capace di governarsi — o se generi una forma di intelligenza che non appartiene più a nessuno, e che proprio per questo appartiene, di fatto, a chi la controlla.

L'IA capitalista mira alla sostituzione del lavoro altamente retribuito con una combinazione di automazione meccanica e manodopera più economica esternalizzata a livello globale. La natura globalizzata del sistema di IA, con le sue complesse catene di approvvigionamento, rende straordinariamente difficile accertare gli effetti transnazionali complessivi sull'occupazione. Sebbene miri a sostituire il lavoro negli attuali centri di produzione, la vera essenza dell'IA risiede nell'assunzione di masse di istruttori di macchine, addetti all'etichettatura di immagini e lavoratori dei servizi per piattaforme di IA a basso costo, la cui effettiva esistenza smentisce il mito dell'intelligenza artificiale. Pertanto, l'IA attualmente richiede un numero enorme di "lavoratori della folla" coinvolti nel "crowdsourcing", ovvero lavoratori online, generalmente ventenni e sparsi in tutto il mondo, che svolgono una sorta di "lavoro fantasma". Ad esempio, nel 2022 OpenAI si è affidata a lavoratori esterni in Kenya, pagati meno di 2 dollari l'ora, per esaminare ed etichettare decine di migliaia di immagini e passaggi tossici associati ad abusi sessuali su minori, bestialità, stupro, ecc., nell'ambito di un'operazione di "pulizia" di ChatGPT, mentre un lavoro simile veniva svolto da lavoratori esterni in Uganda e in India. 23




Commenti

Post popolari in questo blog

"La pelle", di Maurizio Ferraris

L’Europa abbandona Big Tech?

Putnam, Robert Capitale sociale e individualismo Crisi e rinascita della cultura civica in America. Il Mulino