Intelligenza artificiale, crisi delle competenze, simulazione del saper fare ABS

 

Intelligenza artificiale, crisi delle competenze, simulazione del saper fare

di Il Chimico Scettico

Il vero punto di rottura dell'intelligenza artificiale non risiede nella sua capacità di simulare l'intelligenza, quanto piuttosto nel permettere agli utenti di simulare competenze che non possiedono realmente. Questo fenomeno può ridefinire profondamente concetti come autorevolezza, originalità e merito che, in teoria, dovrebbero essere fondanti per una società. Sottolineo "in teoria" perché una società governata in larga parte da simulacri come Baudrillard li ha definiti è già pronta per sostituire intelligenza e competenza con i rispettivi segni.

Il dibattito sull'IA si dovrebbe schiodare dalla dimensione filosofica del passato, incentrata sulla domanda se una macchina possa pensare, per includere l'impatto sociale di queste tecnologie.

C'è una questione già presente: cosa accade quando chiunque può produrre risultati che sembrano provenire da un esperto senza esserlo davvero? L'apparente "democratizzazione" della conoscenza o delle competenze in realtà alimenta un equivoco colossale.

Andiamo indietro nel tempo per dare un'occhiata a una rivoluzione che rimosse barriere all'accesso di una tecnologia. Il boom dei personal computer aveva portato con sé prima quello dei sistemi operativi e poi quello delle interfacce grafiche (MacOS prima, Windows poi). E la maggior parte del software più importante, dal sistema operativo agli applicativi più rilevanti, inclusi quelli per la programmazione, era a pagamento. Poi arrivò Linux, gratuito: qualcuno commentò in chiave marxista, dicendo che i mezzi di produzione erano stati distribuiti alla popolazione.

Con Linux e il free software, in potenza, chiunque poteva programmare in vari linguaggi, da C ANSI a SQL. Ma rimaneva una barriera intrinseca: l'apprendimento dei linguaggi. Imparare un linguaggio richiede tempo e impegno. Se pensate che impegno lo richiedano Python o R, considerate il Fortran o tutta la faccenda dei puntatori in C... Se dovessi cercare nella mia memoria un caso di genialità che ho visto all'opera direi che era quello di qualcuno che, programmando, apriva il core dump, ci dava un'occhiata e esclamava "Ah, ecco il problema!". Era un mondo in cui ogni competenza per essere acquisita non richiedeva soltanto studio e pratica, ma anche capacità analitiche.

L'interfaccia con linguaggio naturale rimuove queste barriere, in tutti i sensi: si può anche chiedere al GPT codice Python o SQL o che altro senza avere alcuna conoscenza o pratica di quei linguaggi. Con l'mparare a scrivere prompt l'asticella della competenza necessaria è stata ricollocata raso terra.

Oggi assistiamo a studenti che generano tesi di laurea di ottanta pagine in tre ore senza aver mai consultato una bibliografia, ad Amazon invasa da opere scritte dall'intelligenza artificiale che, pur contenendo errori concettuali, mantengono un'apparenza credibile, e a sviluppatori che copiano codice da ChatGPT senza comprendere le implicazioni sulla sicurezza informatica.

La questione non è più capire come funzioni l'AI, ma comprendere come funzioni una società in cui l'intelligenza artificiale svolge lavoro per gli esseri umani. Questo cambiamento genera tre crisi fondamentali che minacciano le basi del nostro sistema conoscenza/competenza.

La prima è una crisi epistemica che mette in discussione i nostri meccanismi per stabilire cosa sia e cosa non sia artefatto. Oggi l'intelligenza artificiale dissocia completamente l'output dalla competenza reale: un libro di fisica generato da GPT-4 può apparire identico a quello scritto da un fisico di fama mondiale. Il risultato è che il sapere si trasforma in un teatro di simulazioni dove diventa impossibile distinguere l'umano dall'artefatto e forse, ad un certo punto, questa distinzione finirà per perdere di significato.

La seconda crisi riguarda il merito e solleva interrogativi fondamentali nei processi dell'educazione e hdell'istruzione. Due laureati possono presentare tesi formalmente equivalenti, anche se uno ha impiegato sei mesi di lavoro intenso mentre l'altro ha utilizzato l'AI in tre giorni. Le istituzioni, dalle università alle case editrici, si trovano nell'impossibilità di distinguere l'umano dall'artefatto (o il reale dal simulato?), causando un progressivo svuotamento di valore dell'opera scritta. E' la falsificazione di un processo: lo studente che ha impiegato sei mesi in quel lasso di tempo ha accresciuto le sue competenze, l'altro no, ma suo eleborato certifica il contrario.

La terza crisi tocca la motivazione stessa all'apprendimento. Se un sistema può scrivere romanzi, tradurre dal sanscrito o condurre analisi finanziarie al posto nostro, chi investirà ancora anni della propria vita per acquisire queste competenze? Il rischio è la formazione di una generazione di individui superficiali, capaci di utilizzare strumenti sofisticati ma incapaci di comprenderli veramente. Qualcuno potrebbe dire: i social hanno già inscenato questa realtà, con lauree brevi, magari prese online, che potevano pontificare in nome della scienza. Si, ok, ma i social non sono il mondo reale.

Questa rivoluzione si distingue radicalmente da tutte le innovazioni tecnologiche precedenti. La calcolatrice non ha mai simulato la matematica, ma si è limitata ad accelerare calcoli che l'utente era già in grado di comprendere. Google non scriveva contenuti al posto dell'utente, che doveva comunque possedere le competenze per cercare informazioni e sintetizzarle. Il GPT, o quello che sarà il suo successore, ,genera invece output completi senza richiedere comprensione o competenza, spezzando definitivamente il legame tra apprendimento e produzione di contenuto.

Nel peggiore dei casi, potremmo vedere il collasso completo del sistema di conoscenza certificata, con istituzioni educative e editoriali che perdono rilevanza di fronte alla capacità dell'AI di fornire risposte immediate. Il sapere rischierebbe di frammentarsi in micro-verità algoritmiche personalizzate, replicando su scala più ampia quanto già accade con i social media.

Ma...

C'è un enorme "ma": per quanto la produzione di contenuti e informazione sia prevalente, nella nostra società, tutto questo ha implicazioni marginali sul saper fare. O meglio ne ha finché non si confondono i due piani. Un esempio? Cucina e ricecette. Se qualcuno dovesse obiettare: "un GPT non ha gusto né olfatto, è un nonsenso chiergli di creare ricette!" avrebbe la mia piena approvazione. Purtroppo:

Screenshot 2025 07 03 at 18 12 08 ricette con lintelligence artificielle Cerca con Google.png

Ma qui veniamo al dunque: sono mesi che litigo con un certo pesce perché non riesco a trovare una ricetta che mi soddisfi. Secondo ChatGPT l'idea di marinarlo nella birra chiara con alloro, pepe in grani e scalogno era una buona idea. In realtà l'idea non era per niente buona. E questo è un esempio banale innocuo e terra terra. Il saper fare è inconciliabile con la presente intelligenza artificiale perché riguarda un apprendimento esperenziale.

Il grosso rischio, visto che la confusione tra piani sembra essere l'impronta del presente secolo, è che il saper produrre contenuti sia confuso con il saper fare di ogni ordine. Un GPT non può interagire fisicamente con la realtà materiale. Può generare istruzioni per eseguire task sulla base del dataset su cui è addestrato. E per fare un esempio, con le sintesi organiche può produrre istruzioni assai poco sensate dal punto di vista dell'ottimalità della procedura, del suo profilo di sicurezza, etc, etc. E poi c'è la grande incognita: i GPT possono produrre output cosiddetti "allucinati". Finché è un'allucinazione che produce contenuti ok. Ma un'allucinazione che produce istruzioni da essere eseguite nel mondo fisico?

In ultima analisi è sempre l'essere umano, il problema.


CHATGPT

Ecco la scheda sintetico-analitica del saggio:


📌 Titolo:

Intelligenza artificiale, crisi delle competenze, simulazione del saper fare
Autore: Il Chimico Scettico


🧩 1. Tesi centrale

Il punto critico dell’intelligenza artificiale non è la simulazione dell’intelligenza, ma la possibilità per gli utenti di simulare competenze che non possiedono, producendo elaborati sofisticati (testi, codici, tesi) senza reale apprendimento. Ne deriva una trasformazione profonda (e pericolosa) del concetto stesso di merito, competenza, autenticità e valore del sapere nella società.


🧠 2. Struttura argomentativa

Premessa teorica

  • Richiamo a Baudrillard: viviamo in una società di simulacri, dove l’apparenza ha già sostituito la sostanza.

  • La questione non è più “può una macchina pensare?”, ma “cosa accade se chiunque può sembrare competente senza esserlo?

Paragone storico

  • Linux → distribuzione “marxista” dei mezzi di produzione del software.

  • Ma l’ostacolo restava l’apprendimento dei linguaggi.

  • L’IA attuale (es. GPT) elimina la barriera cognitiva: basta sapere “chiedere” (prompt), non sapere “fare”.

Tre crisi fondamentali:

  1. Crisi epistemica

    • La conoscenza diventa indistinguibile dal suo artificio: l’output di un GPT è simile a quello di un esperto reale.

    • La verifica della competenza viene annullata.

  2. Crisi del merito

    • Due elaborati possono essere identici, ma solo uno frutto di studio e crescita.

    • Le istituzioni (università, editoria) non sanno più valutare l’origine e il valore della produzione.

  3. Crisi motivazionale

    • Se l’AI può sostituire il percorso formativo, perché studiare?

    • Si rischia una generazione “competente in superficie” ma priva di conoscenza profonda.

Confronto con altre tecnologie

  • La calcolatrice non sostituiva la comprensione della matematica.

  • Google non generava contenuto, ma richiedeva abilità nella selezione.

  • GPT rompe il nesso tra apprendimento e produzione: genera in autonomia, senza richiedere comprensione.

Il nodo del saper fare

  • GPT può simulare contenuti, ma non saperi esperienziali.

  • Esempio: ricette → l’output dell’IA può sembrare credibile ma fallisce nella testualità materiale dell’esperienza (es. gusto, sicurezza chimica).

  • Rischio: confondere contenuto con competenza pratica, cioè simulazione con realtà.


📉 3. Valutazione critica

Punti di forza

  • Analisi lucida e originale del disaccoppiamento tra sapere e apparenza.

  • Richiamo alla responsabilità umana: non è l’AI il problema, ma l’uso che se ne fa.

  • Paralleli storici utili (Linux, calcolatrice, Google).

⚠️ Critiche possibili

  • Il tono può risultare pessimista o determinista, non considera pienamente possibilità di nuove forme di apprendimento.

  • Manca una proposta esplicita di regolazione o alfabetizzazione critica.


📚 4. Parole chiave

  • Intelligenza artificiale

  • Simulazione

  • Competenza

  • Merito

  • Crisi epistemica

  • Prompt engineering

  • Saper fare

  • Conoscenza certificata


🔍 5. Conclusione sintetica

L’intelligenza artificiale introduce una frattura profonda tra apparenza e sostanza della competenza. Genera tre crisi – epistemica, meritocratica e motivazionale – che minacciano l’intero sistema educativo e cognitivo moderno. Finché il saper fare esperienziale resta fuori dalla portata delle macchine, resta all’essere umano la responsabilità di discernere, comprendere e valutare. Ma questa responsabilità è oggi più fragile e confusa che mai.


Vuoi anche un abstract di questo testo o una versione ridotta per articolo?


Commenti

Post popolari in questo blog

SACHS ALLA UE

CAPITALISMI GLOBALI

Svolte a destra La Lettura 2-2-25