Dunning-Kruger Artificiale: la nuova analfabetizzazione digitale

Immagine quadrata con sfondo scuro e sagoma di una testa umana illuminata da linee digitali. In alto compare il titolo “Dunning-Kruger Artificiale: la nuova analfabetizzazione digitale”

L’Italia vive una condizione particolare, da un lato la diffusione degli strumenti digitali è capillare, dall’altro la capacità di usarli con cognizione resta bassa. L’ ISTAT parla con chiarezza, solo il 45,7% degli adulti tra 16 e 74 anni possiede competenze digitali almeno di base. Questo significa che una parte consistente della popolazione si muove tra app, piattaforme e servizi online senza disporre di strumenti adeguati per comprenderne il funzionamento profondo.

Prima dell’arrivo dell’intelligenza artificiale generativa, l’analfabetismo digitale aveva contorni relativamente definiti. Era un limite che impediva di sfruttare appieno i servizi digitali e portava con sé rischi concreti, come le truffe informatiche o la difficoltà a compilare documenti elettronici. In quel mondo la relazione tra competenza e consapevolezza era più lineare, chi non sapeva qualcosa lo percepiva, chiedeva aiuto, cercava un esperto. Il limite era evidente e, in qualche modo, protettivo.

Con l’ingresso dell’AI generativa nella vita quotidiana questo equilibrio è cambiato. Gli strumenti digitali non si limitano più a eseguire funzioni ma costruiscono risposte che imitano un ragionamento umano. Offrono testi coerenti, spiegazioni convincenti, linguaggio ordinato e privo di incertezze. Tutto ciò modifica la percezione che l’utente ha delle proprie capacità. Una persona con competenze fragili può leggere un’analisi perfetta prodotta da un modello generativo e credere di aver compreso davvero l’argomento, mentre in realtà ha incorporato una narrazione che il sistema ha preparato.

Alcuni studi mostrano chiaramente questo meccanismo. La ricerca condotta nel 2024 su 246 e poi 452 partecipanti, ha analizzato il comportamento cognitivo delle persone quando svolgono compiti insieme a un sistema di intelligenza artificiale. Il dato più interessante non riguarda la performance, che effettivamente migliora, ma la metacognizione. La capacità di valutare in modo accurato la propria prestazione si riduce per tutti, inclusi gli utenti con conoscenze elevate. La fluida organizzazione del testo generato dalla macchina, crea un contesto che favorisce un’autovalutazione eccessivamente positiva.

In psicologia questo fenomeno trova una base nell’effetto descritto da David Dunning e Justin Kruger. Secondo questo modello, chi possiede competenze limitate tende a sopravvalutare le proprie capacità perché non riconosce gli errori ed i limiti. Con l’AI questo comportamento non riguarda più solo chi ha scarse competenze ma anche l’utente avanzato entra in una zona in cui la percezione di controllo, cresce oltre ciò che è realmente sotto controllo. Questo avviene perché la macchina fornisce una forma di continuità logica che colma gli spazi di dubbio e attenua la fatica cognitiva. La mente umana tende ad aderire spontaneamente a ciò che appare completo e coerente.

La trasformazione più profonda riguarda il modo in cui costruiamo il senso di ciò che sappiamo. Prima della diffusione dell’AI generativa, i passaggi cognitivi erano più trasparenti. Quando si affrontava un argomento tecnico, la parte di comprensione mancava e si avvertiva. Si consultavano guide, si studiava, si chiedeva aiuto a un esperto. Esisteva una distinzione netta tra informazione, interpretazione e competenza.

Oggi questa distinzione diventa sottile. La macchina suggerisce, completa, anticipa. Offre un racconto credibile e lo fa in una forma che riduce la percezione della complessità. La persona non vede più il processo, vede solo il risultato finale. Di conseguenza valuta la propria competenza attraverso l’effetto prodotto dall’assistenza, non attraverso la reale comprensione dei concetti.

È un cambiamento culturale profondo e si manifesta in molte situazioni concrete. Quando si interpreta un grafico di consumo energetico, ad esempio, l’AI genera un commento chiaro e strutturato. Quando si legge una clausola contrattuale, il sistema produce una spiegazione che sembra affidabile. In uno dei miei articoli dedicati all’autonomia energetica, ho descritto come le persone tendono a interpretare i dati degli inverter e delle batterie dando per scontato che ciò che vedono sia una rappresentazione completa. La stessa dinamica si rafforza quando a quei dati si sovrappone la narrazione generata dall’AI.

L’aspetto psicologico più importante da comprendere, riguarda la metacognizione. Gli esseri umani valutano la propria conoscenza sulla base di indizi interni, come la familiarità del linguaggio, la coerenza del racconto e la facilità di elaborazione. L’AI amplifica tutti e tre questi indizi. Rende i concetti più familiari, costruisce frasi perfettamente coerenti e abbatte la fatica cognitiva. La mente interpreta questi segnali come prova della propria padronanza quando, in realtà, sono il risultato della capacità linguistica del sistema.

Questo effetto produce una forma di illusione di competenza. Le persone si sentono in grado di valutare argomenti che richiederebbero una base solida e di conseguenza prendono decisioni che appaiono consapevoli ma che poggiano su una comprensione parziale.

Nel contesto domestico questo può portare a scelte sbilanciate, come ho raccontato nei miei articoli dedicati al fotovoltaico e allo stand-alone. Nel contesto industriale può influenzare la valutazione delle prestazioni di un impianto, la lettura di una curva di carico, l’interpretazione di dati provenienti da sensori complessi. In entrambi i casi il rischio è lo stesso, l’utente confonde la scorrevolezza del discorso con la solidità della conoscenza.

Il passo successivo consiste nel capire come affrontare questa trasformazione culturale. La crescita tecnologica deve procedere insieme alla crescita delle competenze. La tecnologia può assistere il ragionamento, alleggerire i processi, rendere più semplice la gestione dell’informazione. La consapevolezza resta però un requisito umano. È quella che permette di leggere con attenzione un output, distinguere tra ciò che si è compreso e ciò che è stato suggerito, riconoscere il valore delle fonti e delle verifiche. È una forma di attenzione che somiglia molto alla cura che si dedica a un impianto tecnico. Ogni elemento richiede rispetto e ogni collegamento va compreso, non solo osservato.

La qualità delle decisioni del futuro dipenderà da questo equilibrio. L’AI può diventare un alleato ma è la competenza umana a definire il modo in cui lo strumento verrà utilizzato. Investire nelle competenze digitali, competenze di gestione AI, riconoscere BIAS, significa dare struttura a questo rapporto. Significa proteggere la lucidità, salvaguardare la capacità critica e sostenere la responsabilità personale in un mondo sempre più complesso. È un percorso culturale che richiede tempo ma che rappresenta la base per non smarrirsi dentro una tecnologia che cresce più rapidamente di quanto siamo abituati a comprendere.

Al termine di questo articolo mi preme chiarire che usare il termine Dunning-Kruger per descrivere un fenomeno collettivo è utile, spiegativo e stimola una riflessione ma non è invece opportuno attribuirlo a una persona singola come se fosse una diagnosi o additarlo solo per percezioni o considerazioni personali. L’effetto Dunning-Kruger rientra in una gamma complessa di bias cognitivi e richiede strumenti di valutazione specifici, competenze metacognitive e contesti di misurazione rigorosi. Quando parliamo di autodichiarazione, di gruppi di utenti che interagiscono con sistemi di intelligenza artificiale e di alfabetizzazione digitale fragili, stiamo analizzando modelli comportamentali, non stiamo formulando diagnosi psicologiche. Il solo professionista qualificato, psicologo o ricercatore con strumenti e studi validati, può sostenere osservazioni individuali in forma clinica, altrimenti siete proprio voi stessi a poter “cadere” in una sovrastima delle vostre competenze di giudizio.

Concludo invitando il lettore a considerare che la vera autonomia digitale non si misura con la velocità con cui si ottiene una risposta da un AI ma con la capacità di chiedersi… “Cosa non ho ancora capito?”, “Questa risposta ha fonti valide?”, “Chi posso consultare per verificare?” . L.L.

Unisciti agli iscritti che mi seguono.

Riceverai una mail ogni volta che pubblicherò un nuovo articolo!

Non invio spam! Leggi l' Informativa sulla privacy per avere maggiori informazioni.

Enable Notifications OK No thanks