In un precedente articolo su questa rivista (IA e offloading cognitivo: un rischio per il cervello?) abbiamo analizzato i possibili effetti negativi della delega alla tecnologia di alcuni compiti mentali. Uno studio recente affronta il tema di come orientare e controllare l’impiego dell’Intelligenza Artificiale da parte di studenti e medici in training.
Gli autori partono chiarendo tre concetti chiave: deskilling, never-skilling e mis-skilling.
Per deskilling intendono la progressiva erosione di competenze che il discente aveva iniziato a costruire: ad esempio, il giovane medico che si affida sistematicamente al referto automatico dell’ECG rischia, con il tempo, di non saper più interpretare il tracciato in autonomia.
Con never-skilling si indica invece la mancata formazione di una competenza: fin dall’inizio il compito viene ceduto alla macchina; lo studente usa l’IA per formulare diagnosi, prendere appunti o preparare casi clinici senza allenare davvero il proprio ragionamento.
Il termine mis-skilling, infine, si riferisce all’acquisizione di schemi mentali sbagliati: quando l’IA fornisce risposte distorte o imprecise e il discente interiorizza, senza accorgersene, quei bias.
Alla radice di queste dinamiche c’è il fenomeno del cognitive off-loading: la tendenza ad appoggiarsi a strumenti esterni per funzioni come memoria, calcolo, analisi dei dati, presa di decisione. L’off-loading, di per sé, può essere utile: riduce il carico sulla memoria di lavoro, migliora l’efficienza, libera risorse cognitive per compiti più sofisticati.
Se però diventa sistematico e non viene usato in modo critico, produce quello che gli autori definiscono debito cognitivo: un guadagno immediato in velocità e comodità che, nel lungo periodo, si traduce in minore impegno mentale, meno approfondimento e indebolimento della capacità di pensare con la propria testa. Per offrire a docenti e tutor clinici una struttura di riferimento per questa supervisione, viene proposto il modello DEFT-AI. L’acronimo riassume una serie di passaggi: Diagnosis/Discussion/Discourse, Evidence, Feedback, Teaching e, infine, AI engagement recommendation.
Nella fase di Diagnosis/Discussion/Discourse, il tutor invita lo studente a rendere trasparente il proprio percorso mentale: quali diagnosi alternative aveva considerato, quali dati ha ritenuto rilevanti, in che modo ha coinvolto l’IA e quali prompt ha utilizzato.
La fase di Evidence riguarda la valutazione delle prove: sia quelle cliniche a favore di una certa ipotesi, sia quelle che giustificano l’uso di quello specifico strumento di IA per quel compito.
Segue il momento del Feedback, in cui l’educatore favorisce l’auto-valutazione dello studente, lo aiuta a vedere punti di forza e criticità nel modo in cui ha lavorato con l’IA.
Con la fase di Teaching, si consolidano gli apprendimenti clinici e si esplicitano limiti, possibili bias e buone pratiche d’uso dell’IA.
Infine, la AI engagement recommendation consiste nel dare indicazioni operative su come e quando, in futuro, lo studente dovrebbe servirsi dell’IA: in quali situazioni è appropriata, quando è richiesta una supervisione più stretta, quando è opportuno prima “sporcarsi le mani” con il proprio ragionamento e solo dopo confrontare il risultato con la macchina.
Un altro elemento interessante dell’articolo è la distinzione tra due metafore di collaborazione uomo–IA: il “centauro” e il “cyborg”.
Il profilo del “centauro” rimanda a una cooperazione in cui il professionista ripartisce i compiti con l’IA: alcune attività vengono delegate al sistema (riassumere testi, analizzare dati, generare bozze di documenti, conversare con il paziente o con la cartella), mentre altre rimangono chiaramente responsabilità dell’umano (formulare il giudizio clinico, assumersi la decisione finale). In questo schema l’IA funziona soprattutto come strumento di supporto, che propone ma non decide.
Il “cyborg”, al contrario, rappresenta una fusione più stretta: l’output nasce da una co-produzione continua tra utente e IA, fatta di iterazioni, correzioni, scrittura congiunta. Questa configurazione è molto produttiva per compiti seriali e a basso rischio, ma senza regole può alimentare deskilling e dipendenza. L’idea degli autori è che il clinico debba imparare a modulare dinamicamente queste due modalità, scegliendo di volta in volta in base al livello di rischio del compito, al grado di validazione dello strumento e alla propria esperienza.
Su questo sfondo, gli autori insistono sulla necessità di una vera alfabetizzazione all’IA (AI literacy) nel mondo medico. Non è sufficiente saper “far partire” un chatbot: occorre applicare alla valutazione dei tool di IA la stessa mentalità critica utilizzata per giudicare trial e linee guida.
Questo significa porsi domande come: per che cosa è stato progettato questo modello? Con quali dataset è stato addestrato? Quali sono i suoi limiti prevedibili e le fonti di bias? Esistono pubblicazioni che ne documentano l’accuratezza per il tipo di problema che gli sto sottoponendo?
In parallelo, è importante sviluppare la capacità di costruire prompt chiari, completi e non suggestivi, evitando richieste che inducano l’IA a confermare l’idea preconcetta dell’utente. In molti contesti didattici può essere utile chiedere esplicitamente all’IA di articolare il proprio “ragionamento”, così da poterlo analizzare e discutere insieme al tutor.
Nelle conclusioni, gli autori propongono di abbandonare l’approccio ingenuo del “trust and go” a favore di una logica “verify and trust”: prima si controllano coerenza e affidabilità dell’output, poi, entro confini ben definiti, ci si può fidare mantenendo comunque uno sguardo critico.
Allo stesso tempo, sottolineano che non è realistico delegare tutto il controllo al singolo medico: servono percorsi formativi che includano sistematicamente l’IA, criteri chiari per progettare e adottare gli strumenti, procedure robuste di validazione e un monitoraggio continuo degli errori e degli effetti educativi dell’automazione. Solo così l’IA potrà diventare un motore di up-skilling, capace di arricchire competenze e pratica clinica, invece che un fattore silenzioso di deskilling.
In estrema sintesi, come suggerito da F. Cabitza, si deve considerare il sistema come dispositivo di cognitive scaffolding, impalcatura temporanea che permette di salire di livello per capire meglio, esercitarsi, esplorare casi complessi con la finalità esplicita di potenziare le proprie capacità e non di sostituirle.
Bibliografia
Raja-Elie E. Abdulnour et al., Educational Strategies for Clinical Supervision of Artificial Intelligence Use. N Engl J Med 2025;393:786-797 DOI: 10.1056/NEJMra2503232.















