L'intelligenza artificiale è lo specchio nero

 

Iscriviti alla newsletter gratuita di Nautilus:
Scienza e cultura per chi ama la bella scrittura.
NL – Articolo speedbump

PShannon Vallor ed io siamo alla British Library di Londra, dove vivono 170 milioni di articoli: libri, registrazioni, giornali, manoscritti, mappe. In altre parole, stiamo parlando del tipo di luogo in cui i chatbot di intelligenza artificiale di oggi come ChatGPT vengono a nutrirsi.

Seduti sul balcone del caffè della biblioteca, siamo letteralmente all'ombra del Crick Institute, il centro di ricerca biomedica dove vengono studiati i meccanismi più reconditi del corpo umano. Se dovessimo lanciare un sasso da qui attraverso la stazione ferroviaria di St. Pancras, potremmo colpire la sede londinese di Google, la società per la quale Vallor ha lavorato come etico dell'intelligenza artificiale prima di trasferirsi in Scozia per dirigere il Center for Technomoral Futures presso l'Università di Edimburgo.

Qui, incuneata tra i misteri dell'umano, le ricchezze cognitive incorporate nel linguaggio umano e la sfacciata spavalderia dell'intelligenza artificiale commerciale, Vallor mi sta aiutando a dare un senso a tutto questo. L'IA risolverà tutti i nostri problemi o ci renderà obsoleti, forse fino all'estinzione? Entrambe le possibilità hanno generato titoli iperventilanti. Vallor ha poco tempo per entrambi.

Riconosce l'enorme potenziale dell'IA di essere sia benefica che distruttiva, ma pensa che il vero pericolo sia altrove. Come spiega nel suo libro del 2024 The AI Mirror, sia l'idea che l'IA pensi come noi sia la fantasia paranoica che si manifesterà come un dittatore malevolo, affermano una parentela fittizia con gli esseri umani a costo di creare una visione ingenua e tossica di come funziona la nostra mente. È una visione che potrebbe incoraggiarci a rinunciare al nostro libero arbitrio e a rinunciare alla nostra saggezza in ossequio alle macchine.

È facile affermare la parentela tra le macchine e gli esseri umani quando gli esseri umani sono visti come macchine senza cervello.

Leggendo The AI Mirror sono rimasto colpito dalla determinazione di Valor a sondare più a fondo della solita litania di preoccupazioni sull'IA: privacy, disinformazione e così via. Il suo libro è in realtà un discorso sulla relazione tra uomo e macchina, che lancia l'allarme su come l'industria tecnologica propaga una versione degradata di ciò che siamo, che reimmagina l'essere umano sotto le sembianze di un computer morbido e umido.

Se questo suona cupo, Vallor non lo è di certo. Indossa con leggerezza la profonda intuizione acquisita osservando l'industria dall'interno, unita a una base nella filosofia della scienza e della tecnologia. Non è una crociata contro il commercio dell'intelligenza artificiale, parla calorosamente del suo periodo in Google mentre ride di alcune delle assurdità della Silicon Valley. Ma la chiarezza e l'integrità morale e intellettuale che porta alle questioni difficilmente potrebbero offrire un contrasto maggiore con la spavalderia superficiale e imberbe tipica dei proverbiali fratelli tecnologici.

"Siamo in un momento storico in cui abbiamo bisogno di ricostruire la nostra fiducia nelle capacità degli esseri umani di ragionare con saggezza, di prendere decisioni collettive", mi dice Vallor. "Non affronteremo l'emergenza climatica o la frattura delle fondamenta della democrazia a meno che non riusciamo a riaffermare la fiducia nel pensiero e nel giudizio umano. E tutto nel mondo dell'intelligenza artificiale sta lavorando contro questo".

L'intelligenza artificiale come specchio

Per comprendere gli algoritmi di intelligenza artificiale, sostiene Vallor che non dovremmo considerarli come menti. "Per oltre un secolo siamo stati addestrati dalla fantascienza e dalle visioni culturali dell'intelligenza artificiale ad aspettarci che quando arriverà, sarà una mente macchina", mi dice. "Ma quello che abbiamo è qualcosa di molto diverso per natura, struttura e funzione".

Piuttosto, dovremmo immaginare l'intelligenza artificiale come uno specchio, che non duplica ciò che riflette. "Quando vai in bagno per lavarti i denti, sai che non c'è una seconda faccia che ti guarda", dice Vallor. "Questo è solo il riflesso di un volto, e ha proprietà molto diverse. Non ha calore; non ha profondità". Allo stesso modo, un riflesso di una mente non è una mente. I chatbot AI e i generatori di immagini basati su modelli linguistici di grandi dimensioni sono semplici specchi delle prestazioni umane. "Con ChatGPT, l'output che vedi è un riflesso dell'intelligenza umana, delle nostre preferenze creative, della nostra esperienza di programmazione, delle nostre voci, qualunque cosa ci mettiamo".

Anche gli esperti, dice Vallor, si fanno ingannare all'interno di questa sala degli specchi. Geoffrey Hinton, l'informatico che ha condiviso il premio Nobel per la fisica di quest'anno per il suo lavoro pionieristico nello sviluppo delle tecniche di deep learning che hanno reso possibili gli LLM, in occasione di una conferenza sull'intelligenza artificiale nel 2024, ha affermato che "comprendiamo il linguaggio più o meno allo stesso modo di questi modelli linguistici di grandi dimensioni".

Hinton è convinto che queste forme di intelligenza artificiale non si limitino a rigurgitare ciecamente il testo in schemi che ci sembrano significativi; Sviluppano un certo senso del significato delle parole e dei concetti stessi. Un LLM viene addestrato consentendogli di regolare le connessioni nella sua rete neurale fino a quando non fornisce risposte valide in modo affidabile, un processo che Hinton ha paragonato a "essere genitori per un bambino precoce soprannaturale". Ma poiché l'intelligenza artificiale può "sapere" molto più di noi e "pensare" molto più velocemente, Hinton conclude che alla fine potrebbe soppiantarci: "È abbastanza concepibile che l'umanità sia solo una fase passeggera nell'evoluzione dell'intelligenza", ha detto in una conferenza del MIT Technology Review del 2023.

Nell'immagine del corpo
L'ETICO DELL'INTELLIGENZA ARTIFICIALE: Shannon Vallor sta lanciando l'allarme su come l'industria tecnologica propaga una versione degradata degli esseri umani. Se questo suona cupo, Vallor non lo è di certo. Indossa con leggerezza la profonda intuizione acquisita osservando l'industria dall'interno, unita a una base di filosofia della scienza. Foto di Callum Bennetts–Maverick Photo Agency.

"Hinton è così fuori di testa quando inizia a parlare di conoscenza ed esperienza", dice Vallor. "Sappiamo che il cervello e un modello di apprendimento automatico sono solo superficialmente analoghi nella loro struttura e funzione. In termini di ciò che sta accadendo a livello fisico, c'è un abisso di differenza che abbiamo tutte le ragioni per pensare che faccia la differenza". Non c'è una vera parentela.

Sono d'accordo sul fatto che alle affermazioni apocalittiche sia stato dato troppo spazio, dico a Vallor. Ma alcuni ricercatori affermano che gli LLM stanno diventando più "cognitivi": si dice che l'ultimo chatbot di OpenAI, il modello o1, funzioni attraverso una serie di passaggi della catena di ragionamento (anche se l'azienda non li rivelerà, quindi non possiamo sapere se assomigliano al ragionamento umano). E l'intelligenza artificiale ha sicuramente caratteristiche che possono essere considerate aspetti della mente, come la memoria e l'apprendimento. L'informatica Melanie Mitchell e il teorico della complessità David Krakauehanno proposto che, anche se non dovremmo considerare questi sistemi come menti come le nostre, potrebbero essere considerati menti di una varietà molto diversa e non familiare.

"Sono piuttosto scettico su questo approccio. Potrebbe essere appropriato in futuro, e non sono contrario in linea di principio all'idea che potremmo costruire menti meccaniche. Non credo che sia quello che stiamo facendo in questo momento".

La resistenza di Valor all'idea dell'IA come mente deriva dal suo background in filosofia, dove la mentalità tende ad essere radicata nell'esperienza: esattamente ciò che l'IA di oggi non ha. Di conseguenza, dice, non è appropriato parlare di queste macchine come di un pensiero.

Il suo punto di vista si scontra con l'articolo del 1950 del matematico britannico e pioniere dell'informatica Alan Turing, "Computing machinery and Intelligence", spesso considerato il fondamento concettuale dell'intelligenza artificiale. Turing pose la domanda: "Le macchine possono pensare?" – solo per sostituirla con quella che considerava una domanda migliore, ovvero se potevamo sviluppare macchine in grado di dare risposte a domande che non saremmo stati in grado di distinguere da quelle degli esseri umani. Questo era il "gioco dell'imitazione" di Turing, ora comunemente noto come il test di Turing.

Ma l'imitazione è tutto ciò che è, dice Vallor. "Per me, il pensiero è un insieme specifico e piuttosto unico di esperienze che abbiamo. Pensare senza esperienza è come l'acqua senza l'idrogeno: hai tolto qualcosa che perde la sua identità".

Il ragionamento richiede concetti, dice Vallor, e gli LLM non li sviluppano veramente. "Qualunque cosa chiamiamo concetti in un LLM è in realtà qualcosa di diverso. Si tratta di una mappatura statistica delle associazioni in uno spazio vettoriale matematico ad alta dimensione. Attraverso questa rappresentazione, il modello può ottenere una linea di vista verso la soluzione che è più efficiente di una ricerca casuale. Ma non è così che pensiamo".

Sono, tuttavia, molto bravi a fingere di ragionare. "Possiamo chiedere al modello: 'Come sei arrivato a questa conclusione?' e questo fa cazzate su un'intera catena di pensieri che, se ci fai pressione, crollerà in sciocchezze molto rapidamente. Questo ti dice che non è stata una linea di pensiero quella che la macchina ha seguito e a cui si è impegnata. È solo un'altra distribuzione probabilistica di forme simili alla ragione che sono abbinate in modo appropriato con l'output che ha generato. È interamente post hoc".

Contro la macchina umana

L'insidia di insistere su una parentela fittizia tra la mente umana e la macchina può essere individuata fin dai primi giorni dell'IA negli anni '50. Ed ecco cosa mi preoccupa di più, dico a Vallor. Non è tanto perché le capacità dei sistemi di intelligenza artificiale vengono sopravvalutate nel confronto, ma perché il modo in cui funziona il cervello umano ne viene così sminuito.

"Questa è la mia più grande preoccupazione", concorda. Ogni volta che tiene un discorso sottolineando che gli algoritmi di intelligenza artificiale non sono davvero menti, Vallor dice: "Qualcuno tra il pubblico viene da me e mi dice: 'Beh, hai ragione, ma solo perché alla fine della giornata anche le nostre menti non stanno facendo queste cose: non siamo davvero razionali, non siamo davvero responsabili di ciò in cui crediamo, siamo solo macchine predittive che sputano fuori le parole che la gente si aspetta, stiamo solo abbinando schemi, stiamo solo facendo quello che sta facendo un LLM'".

Hinton ha suggerito che un LLM può avere dei sentimenti. "Forse non esattamente come noi, ma in un senso leggermente diverso", dice Vallor. "E poi ti rendi conto che lo ha fatto solo spogliando il concetto di emozione da tutto ciò che è umanamente vissuto e trasformandolo in una reazione comportamentista. Sta prendendo le teorie più riduttive del XX secolo sulla mente umana come verità di base. Da lì diventa molto facile affermare la parentela tra le macchine e gli esseri umani, perché hai già trasformato l'essere umano in una macchina senza cervello".

È con la tanto decantata nozione di intelligenza artificiale generale (AGI) che questi problemi iniziano a diventare acuti. L'AGI è spesso definita come un'intelligenza artificiale in grado di svolgere qualsiasi funzione intelligente che gli esseri umani possono svolgere, ma meglio. Alcuni credono che siamo già su quella soglia. Solo che, per fare tali affermazioni, dobbiamo ridefinire l'intelligenza umana come un sottoinsieme di ciò che facciamo.

"Sì, e questa è una strategia molto deliberata per distogliere l'attenzione dal fatto che non abbiamo realizzato l'AGI e non ci siamo neanche lontanamente vicini", afferma Vallor.

La cultura della Silicon Valley ha le caratteristiche della religione. Non è possibile che ci siano controprove o argomentazioni.

Originariamente, AGI significava qualcosa che non perde nulla di ciò che una mente umana potrebbe fare, qualcosa su cui non avremmo dubbi che stia pensando e comprendendo il mondo. Ma in The AI Mirror, Vallor spiega che esperti come Hinton e Sam Altman, CEO di OpenAI, la società che ha creato ChatGPT, ora definiscono l'AGI come un sistema uguale o migliore degli esseri umani nel calcolo, nella previsione, nella modellazione, nella produzione e nella risoluzione dei problemi.

"In effetti", dice Vallor, Altman "ha spostato i pali della porta e ha detto che ciò che intendiamo per AGI è una macchina che può in effetti svolgere tutti i compiti economicamente preziosi che gli esseri umani svolgono". È un'opinione comune nella comunità. Mustafa Suleyman, CEO di Microsoft AI, ha scritto che l'obiettivo finale dell'IA è quello di "distillare l'essenza di ciò che ci rende esseri umani così produttivi e capaci in un software, in un algoritmo", che considera equivalente alla capacità di "replicare proprio ciò che ci rende unici come specie, la nostra intelligenza".

Quando ha visto la riformulazione di Agi da parte di Altman, Vallor dice: "Ho dovuto chiudere il laptop e fissare il vuoto per mezz'ora. Ora tutto ciò che abbiamo per l'obiettivo dell'AGI è qualcosa con cui il tuo capo può sostituirti. Può essere insensato come un tostapane, purché possa fare il tuo lavoro. Ed è questo che sono gli LLM: sono tostapane senza cervello che fanno un sacco di lavoro cognitivo senza pensare".

Sondo questo punto con Vallor. Dopotutto, avere IA in grado di batterci a scacchi è una cosa, ma ora abbiamo algoritmi che scrivono una prosa convincente, fanno chat coinvolgenti, fanno musica che inganna alcuni facendogli credere che sia stata fatta da esseri umani. Certo, questi sistemi possono essere piuttosto limitati e insipidi, ma non stanno invadendo sempre di più compiti che potremmo considerare unicamente umani?

"È qui che la metafora dello specchio diventa utile", dice. "Un'immagine speculare può danzare. Uno specchio abbastanza buono può mostrarti gli aspetti di te stesso che sono profondamente umani, ma non l'esperienza interiore di essi, solo la performance". Con l'arte dell'intelligenza artificiale, aggiunge, "l'importante è rendersi conto che non c'è nulla dall'altra parte che partecipa a questa comunicazione".

Ciò che ci confonde è che possiamo provare emozioni in risposta a un'"opera d'arte" generata dall'intelligenza artificiale. Ma questo non è sorprendente perché la macchina sta riflettendo a ritroso le permutazioni dei modelli che gli esseri umani hanno creato: musica alla Chopin, prosa alla Shakespeare. E la risposta emotiva non è in qualche modo codificata nello stimolo, ma è costruita nella nostra mente: l'impegno con l'arte è molto meno passivo di quanto tendiamo a immaginare.

Ma non si tratta solo di arte. "Siamo creatori e inventori di significato, e questo è in parte ciò che ci dà le nostre libertà personali, creative e politiche", dice Vallor. "Non siamo bloccati nei modelli che abbiamo ingerito, ma possiamo riorganizzarli in nuove forme. Lo facciamo quando affermiamo nuove rivendicazioni morali nel mondo. Ma queste macchine non fanno altro che rimettere in circolo gli stessi modelli e forme con lievi variazioni statistiche. Non hanno la capacità di dare un significato. Questo è fondamentalmente l'abisso che ci impedisce di essere giustificati nel rivendicare una vera parentela con loro".

Il problema della Silicon Valley

Chiedo a Vallor se alcune di queste idee sbagliate e di questi depistaggi sull'IA siano radicati nella natura stessa della comunità tecnologica, nella sua ristrettezza di formazione e cultura, nella sua mancanza di diversità.

Sospira. "Avendo vissuto nella Bay Area di San Francisco per la maggior parte della mia vita e avendo lavorato nel settore tecnologico, posso dirvi che l'influenza di quella cultura è profonda, e non è solo una particolare prospettiva culturale, ha le caratteristiche di una religione. Ci sono certi impegni in questo modo di pensare che sono incrollabili da qualsiasi tipo di controprova o argomentazione". In effetti, fornire controprove ti fa solo escludere dalla conversazione, dice Vallor. "È una concezione molto ristretta di cosa sia l'intelligenza, guidata da un profilo molto ristretto di valori in cui l'efficienza e una sorta di dominio del tipo "chi vince prende tutto" sono i valori più alti da perseguire per qualsiasi creatura intelligente".

Ma questa efficienza, continua Vallor, "non è mai definita con alcun riferimento a un valore più alto, il che mi uccide sempre. Perché potrei essere il più efficiente nel bruciare ogni casa del pianeta, e nessuno direbbe: 'Evviva Shannon, sei il piromane più efficiente che abbiamo mai visto! Buon per te!'"

La gente pensa davvero che il sole stia tramontando sul processo decisionale umano. Questo è terrificante per me.

Nella Silicon Valley l'efficienza è fine a se stessa. "Si tratta di raggiungere una situazione in cui il problema è risolto e non c'è più attrito, non c'è più ambiguità, nulla di non detto o di incompiuto, hai dominato il problema ed è scomparso e tutto ciò che rimane è la tua soluzione perfetta e brillante. È questa ideologia dell'intelligenza come cosa che vuole rimuovere l'attività del pensiero".

Vallor mi dice che una volta ha cercato di spiegare a un leader dell'AGI che non esiste una soluzione matematica al problema della giustizia. "Gli ho detto che la natura della giustizia è che abbiamo valori e interessi contrastanti che non possono essere resi commensurabili su un'unica scala, e che il lavoro di deliberazione umana, negoziazione e appello è essenziale. E lui mi ha detto: 'Penso che significhi solo che non sei bravo in matematica'. Cosa ne pensi? Diventano due visioni del mondo che non si intersecano. Stai parlando a due concezioni molto diverse della realtà".

Il vero pericolo

Vallor non sottovaluta le minacce che un'intelligenza artificiale sempre più potente rappresenta per le nostre società, dalla privacy alla disinformazione e alla stabilità politica. Ma la sua vera preoccupazione in questo momento è ciò che l'intelligenza artificiale sta facendo alla nostra nozione di noi stessi.

"Penso che l'intelligenza artificiale stia rappresentando una minaccia abbastanza imminente per il significato esistenziale della vita umana", afferma Vallor. "Attraverso la sua automazione delle nostre pratiche di pensiero e attraverso la narrativa che si sta creando intorno ad essa, l'intelligenza artificiale sta minando il nostro senso di noi stessi come intelligenze responsabili e libere nel mondo. Lo si può trovare nella retorica autoritaria che vuole giustificare la privazione degli esseri umani di governarsi da soli. Quella storia ha avuto nuova vita grazie all'intelligenza artificiale".

Peggio ancora, dice, questa narrazione è presentata come una storia obiettiva, neutrale, politicamente distaccata: è solo scienza. "Ci sono queste persone che pensano davvero che il tempo dell'azione umana sia finito, che il sole stia tramontando sul processo decisionale umano, e che questa sia una buona cosa e che sia semplicemente un fatto scientifico. Questo è terrificante per me. Ci viene detto che il prossimo passo è che l'AGI costruirà qualcosa di meglio. E penso che ci siano persone molto ciniche che credono che questo sia vero e stanno traendo una sorta di conforto religioso nella convinzione che stanno guidando all'esistenza i nostri successori meccanici".

Vallor non vuole che l'IA si fermi. Dice che potrebbe davvero aiutare a risolvere alcuni dei gravi problemi che dobbiamo affrontare. "Ci sono ancora enormi applicazioni dell'IA in medicina, nel settore energetico, in agricoltura. Voglio che continui ad avanzare in modi che siano saggiamente selezionati, guidati e governati".

Ecco perché una reazione negativa, per quanto comprensibile, potrebbe essere un problema a lungo termine. "Vedo molte persone che si rivoltano contro l'intelligenza artificiale", afferma Vallor. "Sta diventando un odio potente in molti circoli creativi. Queste comunità erano molto più equilibrate nei loro atteggiamenti circa tre anni fa, quando gli LLM e i modelli di immagine hanno iniziato a uscire. C'erano un sacco di persone che dicevano: 'Questo è un po' figo'. Ma l'approccio dell'industria dell'intelligenza artificiale ai diritti e all'agenzia dei creatori è stato così sfruttatore che ora si vedono creativi dire: 'Fanculo all'intelligenza artificiale e a tutti coloro che vi sono affezionati, non fatela avvicinare al nostro lavoro creativo'. Mi preoccupa questo atteggiamento reattivo nei confronti delle forme più dannose di IA che si diffonde in una generale diffidenza nei suoi confronti come percorso per risolvere qualsiasi tipo di problema".

Anche se Vallor vuole ancora promuovere l'IA, "mi trovo molto spesso nel campo delle persone che si rivoltano contro di essa con rabbia per ragioni del tutto legittime", afferma. Questa divisione, ammette, diventa parte di una "separazione artificiale a cui le persone spesso si aggrappano tra l'umanità e la tecnologia". Una tale distinzione, dice, "è potenzialmente piuttosto dannosa, perché la tecnologia è fondamentale per la nostra identità. Siamo creature tecnologiche da prima di essere Homo sapiens. Gli strumenti sono stati strumenti della nostra liberazione, della nostra creazione, di modi migliori di prenderci cura l'uno dell'altro e degli altri esseri viventi su questo pianeta, e non voglio lasciarlo andare, per imporre questa divisione artificiale dell'umanità contro le macchine. La tecnologia, al suo interno, può essere un'attività umana come qualsiasi altra cosa. Abbiamo appena perso quella connessione". 

Immagine principale di Tasnuva Elahi; con immagini di Malte Mueller / fstop Images e Valery Brozhinsky / Shutterstock


Commenti

Post popolari in questo blog

SACHS ALLA UE

CAPITALISMI GLOBALI

"La pelle", di Maurizio Ferraris