Con il lancio di ChatGPT Health, OpenAI compie un passo che va ben oltre l’innovazione tecnologica. Non siamo di fronte a un semplice strumento informativo più sofisticato, ma all’ingresso dell’intelligenza artificiale generativa nel territorio più intimo e sensibile dell’esperienza umana: la salute. Per la prima volta, un sistema conversazionale è progettato per interagire direttamente con dati clinici personali — esami, terapie, parametri biometrici — e restituire spiegazioni, sintesi e orientamenti personalizzati.
È un cambiamento silenzioso ma profondo, che ridefinisce il modo in cui le persone si informano, si orientano e prendono decisioni riguardo al proprio corpo.
Dalla ricerca di informazioni all’assistenza cognitiva
Fino a ieri, l’uso dell’IA in ambito sanitario somigliava molto a quello di un motore di ricerca evoluto: domande generiche, risposte generiche. Oggi il salto è qualitativo. Con ChatGPT Health, il contesto personale entra nel sistema. La salute non è più trattata come un argomento astratto, ma come una narrazione individuale fatta di dati, storie cliniche e abitudini di vita.
L’obiettivo dichiarato è aiutare le persone a comprendere meglio referti complessi, prepararsi alle visite mediche, gestire terapie e orientarsi tra informazioni spesso frammentarie. In un mondo in cui l’accesso alle cure è sempre più diseguale e i tempi della sanità pubblica sono sotto pressione, la promessa è chiara: più comprensione, più autonomia, più continuità informativa.
Un sistema che “parla bene” ma non “sa”
Tuttavia, dietro questa promessa si nasconde una questione cruciale, spesso sottovalutata: che tipo di conoscenza produce un modello linguistico? ChatGPT, anche nella sua versione Health, non comprende la medicina nel senso umano del termine. Non ha esperienza, intuizione clinica o responsabilità morale.
Funziona per probabilità: genera la risposta linguisticamente più plausibile sulla base dei dati di addestramento. Questo lo rende estremamente efficace nel “parlare bene”, ma strutturalmente fragile quando si tratta di verità fattuale. Il rischio non è tanto l’errore in sé, anche gli esseri umani sbagliano, quanto l’illusione di affidabilità. Una risposta formulata con sicurezza e chiarezza può apparire autorevole anche quando è parziale o sbagliata. È il paradosso dell’algoritmo: più è fluido, più tende a essere creduto.
Il confine sottile tra informazione e decisione
OpenAI insiste sul fatto che ChatGPT Health non fornisce diagnosi né trattamenti, ma “solo informazioni”. Tuttavia, nella vita reale, questo confine è tutt’altro che netto. Le persone chiedono informazioni per decidere: se preoccuparsi, se rimandare una visita, se cambiare un comportamento, se iniziare o sospendere una terapia. Quando un sistema risponde a domande che incidono sulle scelte di cura, anche senza dichiararlo, entra di fatto nello spazio decisionale.
Ed è qui che emergono le ambiguità più profonde: chi è responsabile delle conseguenze? L’utente? Il medico? La piattaforma?
Dati sanitari: fiducia, potere e sovranità
Un altro nodo centrale riguarda i dati. ChatGPT Health promette crittografia avanzata, isolamento delle conversazioni e non utilizzo dei dati per l’addestramento dei modelli. Sono garanzie importanti, ma non risolvono il problema di fondo: la concentrazione di informazioni biologiche estremamente sensibili in mano a un attore privato globale. La storia recente della tecnologia digitale ci insegna che le piattaforme cambiano nel tempo: modelli di business, policy sulla privacy, strategie di monetizzazione.
Oggi il servizio è gratuito. Domani? I dati sanitari non sono semplici preferenze di consumo: raccontano fragilità, predisposizioni, malattie. Affidarli a una “scatola nera” algoritmica richiede un atto di fiducia che merita un dibattito pubblico molto ampio.
Disuguaglianze e delega cognitiva
C’è poi una questione sociale spesso trascurata. Questi strumenti funzionano meglio per chi sa già come usarli: chi ha buona alfabetizzazione digitale, conoscenze di base sulla salute, familiarità con il linguaggio tecnico. Chi ne è privo rischia di ottenere risposte vaghe o fuorvianti, oppure di delegare eccessivamente il proprio giudizio a un sistema percepito come autorevole. Ricordiamo che in Italia il 47% della popolazione è classificato come analfabeta digitale funzionale.
Il paradosso è evidente: uno strumento pensato per democratizzare l’accesso alla salute potrebbe amplificare le disuguaglianze, offrendo un vantaggio cognitivo a chi è già avvantaggiato.
Una questione culturale prima che tecnologica
ChatGPT Health non è solo una questione di efficienza o innovazione. È una questione culturale e politica. Riguarda il modo in cui una società decide di trattare la salute: come bene pubblico o come servizio intermediato da piattaforme private; come relazione umana o come flusso di dati.
In Europa esistono strumenti normativi importanti, come l’AI Act e il GDPR, che offrono un livello di tutela superiore rispetto ad altri contesti. Ma la regolazione, da sola, non basta. Serve una visione: infrastrutture pubbliche dei dati sanitari, modelli trasparenti e verificabili, integrazione dell’IA come supporto e non come sostituzione del giudizio umano.
Conclusione: governare, non subire
Il lancio di ChatGPT Health non va accolto né con entusiasmo acritico né con rifiuto ideologico. È un segnale di una trasformazione già in atto: milioni di persone usano quotidianamente l’IA per capire sintomi, esami e terapie, spesso quando il medico non è disponibile. La vera sfida non è fermare questa evoluzione, ma governarla. Definire regole chiare, responsabilità esplicite, limiti etici. Garantire che l’intelligenza artificiale resti uno strumento di supporto alla comprensione, non un’autorità invisibile a cui delegare il senso della nostra salute. In gioco non c’è solo l’innovazione tecnologica, ma il modo in cui vogliamo abitare il rapporto tra conoscenza, corpo e potere nell’era degli algoritmi.
Letture consigliate
OpenAI – Introducing ChatGPT Health.
Digital Healt.
Dal dr Google a ChatGPT.















