Quando l’AI entra nella nostra salute: CHATGPT HEALTH e MIA

Il futuro della sanità è già iniziato

Tre anni fa non ce lo saremmo mai immaginato, anzi, se qualcuno ci avesse detto che nel gennaio 2026 avremmo discusso di intelligenza artificiale che:

  • aiuta i medici a diagnosticare
  • analizza i nostri esami del sangue
  • suggerisce percorsi terapeutici personalizzati

probabilemente avremmo sorriso con scettisismo pensando a scenari da film di fantascenza ancora lontani dalla nostra quotidianità.

Eppure eccoci qui, davanti a due iniziative che stanno ridisegnando il rapporto tra tecnologia e salute: ChatGPT Health di OpenAI, lanciato il 7 gennaio scorso e già disponibile negli Stati Uniti, e MIA la piattaforma italiana promossa da Agenas del Ministero della Salute che in questi giorni entra negli studi dei primi 1.500 medici di famiglia, aprendo un capitolo completamente nuovo nella storia della medicina di prossimità.

Già sento il coro che si alza, migliaia di voci pronte a gridare alla privacy violata, alla riservatezza calpestata, al rapporto medico-paziente snaturato, ai dati sensibili esposti, alle macchine che sfuggono al controllo umano.

Tutte obiezioni legittime, anzi sacrosante, che meritano attenzione e risposte serie, ma permettetemi una domanda scomoda, di quelle ci piace fare perché credo che il pensiero critico debba partire prima di tutto da noi stessi: quanti di voi che stanno per indignarsi hanno letto attentamente le clausole quando hanno aperto un account Facebook o YouTube?

Il paradosso della privacy selettiva

Proviamo a fare un esercizio di onestà intellettuale, di quelli che fanno un po’ male ma che servono a capire dove siamo davvero.
Quante foto dei nostri figli minorenni abbiamo postato sui social senza chiederci chi le vedrà tra dieci anni e in quali contesti potrebbero riemergere? Quante volte abbiamo annunciato al mondo intero che eravamo in vacanza dall’altra parte del pianeta, per poi tornare e scoprire che qualcuno aveva approfittato di quell’informazione così generosamente condivisa? Quanti dati biometrici abbiamo regalato a filtri divertenti che ci invecchiano o ci trasformano in personaggi di film, senza sapere dove quei dati finiscono e come vengono utilizzati? Quante conversazioni private, foto intime, documenti personali transitano ogni giorno su piattaforme gratuite i cui termini di servizio sono lunghi quanto un romanzo e che nessuno legge mai fino in fondo?

Eppure, quando si parla di usare l’intelligenza artificiale per aiutare un medico a non sbagliare una diagnosi, per supportare un professionista sanitario oberato di lavoro con una banca dati di conoscenze scientifiche aggiornate in tempo reale, improvvisamente diventiamo tutti paladini della riservatezza, custodi intransigenti dei nostri dati più sensibili. C’è qualcosa che non torna in questa indignazione a geometria variabile, in questa sensibilità che si accende solo quando la tecnologia potrebbe effettivamente aiutarci invece di intrattenerci.

Non sto dicendo che le preoccupazioni sulla privacy sanitaria siano infondate, anzi è vero esattamente il contrario: i dati sulla nostra salute sono tra i più sensibili che esistano e meritano protezioni rigorose, sto dicendo che il dibattito pubblico su questi temi soffre di una schizofrenia preoccupante che dovremmo avere il coraggio di riconoscere: siamo pronti a regalare la nostra vita digitale in cambio di un servizio gratuito che ci permette di vedere cosa fanno i nostri ex compagni di scuola, ma ci scandalizziamo quando la tecnologia potrebbe effettivamente contribuire a salvarci la vita o a migliorare la qualità delle cure che riceviamo.

Due strade, un orizzonte comune

Ma veniamo ai fatti, perché i fatti contano più delle opinioni e perché è dai dati concreti che dobbiamo partire per costruire un ragionamento solido.

Il 7 gennaio 2026, OpenAI ha lanciato ChatGPT Health negli Stati Uniti, e il dato che dovrebbe farci riflettere è questo: 230 milioni di persone nel mondo già usavano ChatGPT ogni settimana per fare domande sulla propria salute, non ogni anno, non ogni mese, ma ogni settimana, mentre oltre 40 milioni di persone ogni giorno chiedono consigli sanitari a un chatbot che non era stato progettato specificamente per quello scopo.

Questo accadeva già, spontaneamente, senza alcun controllo specifico, senza protezioni dedicate, senza che nessuno avesse pensato a come gestire questo flusso enorme di richieste sanitarie.

OpenAI ha deciso di prendere atto di questa realtà, di non ignorarla come fanno spesso le istituzioni quando i fenomeni tecnologici le superano, e di costruirci sopra qualcosa di strutturato: uno spazio dedicato con protezioni aggiuntive, dove i dati sanitari vengono isolati in un ambiente separato, crittografati con standard elevati, e soprattutto non utilizzati per addestrare i modelli di intelligenza artificiale. Gli utenti possono connettere le proprie cartelle cliniche, le app di wellness come Apple Health o MyFitnessPal, e ricevere risposte contestualizzate ai propri dati reali, non più consigli generici validi per chiunque ma informazioni ancorate alla propria storia clinica personale.

In Italia, nel frattempo, prende forma un’altra storia che merita altrettanta attenzione. L’Agenas, l’Agenzia nazionale per i servizi sanitari regionali, sta lanciando MIA, acronimo che sta per Medicina e Intelligenza Artificiale, una piattaforma diversa da ChatGPT Health perché pensata non per i pazienti ma per i medici di famiglia. I primi 1.500 camici bianchi la sperimenteranno durante il 2026, con l’obiettivo di estenderla progressivamente a 15.000 professionisti entro il 2027, creando una rete capillare di medicina assistita dall’intelligenza artificiale su tutto il territorio nazionale.

Mia non è ChatGPT, è una cosa diversa costruita con una filosofia diversa che vale la pena comprendere, Utilizza un’architettura chiamata Retrieval Augmented Generation che pesca esclusivamente da fonti certificate: linee guida dell’Istituto Superiore di Sanità, note dell’AIFA, letteratura scientifica peer-reviewed, percorsi diagnostico-terapeutici validati dalla comunità medica. Come ha spiegato Americo Cicchetti, commissario Agenas, la differenza con ChatGPT è tutta qui: mentre ChatGPT pesca dall’oceano del web con tutti i possibili errori e le informazioni non verificate che questo comporta, MIA interroga esclusivamente il perimetro della scienza validata, offrendo al medico una bussola affidabile invece di una mappa approssimativa.

Strumenti di supporto, non sostituti

Ecco il punto che spesso sfugge nel dibattito pubblico, travolto com’è da titoli sensazionalistici e paure ancestrali verso le macchine che pensano: queste non sono iniziative in competizione tra loro, non sono modelli alternativi che si escludono a vicenda, ma sono due facce della stessa medaglia che rispondono a bisogni diversi all’interno dello stesso ecosistema sanitario.

ChatGPT Health è pensato per i pazienti che già cercavano informazioni sanitarie online, spesso in modo disordinato e rischioso su forum non moderati e siti di dubbia affidabilità, mentre MIA è pensata per i medici, per dotarli di un’enciclopedia dinamica e di una banca dati mondiale accessibile in tempo reale durante la visita. Una non esclude l’altra, anzi sono complementari e potrebbero un giorno dialogare tra loro.

E soprattutto, nessuna delle due pretende di sostituire il medico, un punto che va ribadito con forza perché è la chiave per comprendere correttamente queste innovazioni. OpenAI lo dice esplicitamente nei suoi termini di servizio: ChatGPT Health non è destinato all’uso nella diagnosi o nel trattamento di alcuna condizione di salute, ma serve a informare, preparare, accompagnare il paziente nel suo percorso. Agenas ribadisce con altrettanta chiarezza che è ovviamente poi il medico che deve verificare, approfondire e fare le sue scelte in totale autonomia, perché la responsabilità clinica rimane saldamente nelle mani del professionista. Sono strumenti di supporto che amplificano le capacità umane, non tecnologie di sostituzione che le rimpiazzano.

Ma fatemi fare una domanda a chi si scandalizzerà per queste novità, una domanda che nasce dall’osservazione di migliaia di interazioni tra pazienti e sistema sanitario: quante volte siete andati dal medico dicendo “ho letto su Google” e presentando una diagnosi fai-da-te basata sul primo risultato di ricerca? (Sponsorizzato per dipiù) questo sì che è un problema serio che affligge quotidianamente i professionisti sanitari: milioni di persone che arrivano negli ambulatori partendo dall’autodiagnosi selvaggia su forum non moderati, siti di dubbia affidabilità, articoli sensazionalistici scritti per generare click invece che per informare.

Almeno con ChatGPT Health e con Mia c’è un tentativo strutturato di incanalare questo flusso inevitabile, di dargli dei binari sicuri, di renderlo meno pericoloso per tutti.

Rimettere il medico di famiglia al centro

C’è un aspetto di queste innovazioni che mi sta particolarmente a cuore e che riguarda il potenziamento della medicina di prossimità, quella rete di assistenza territoriale che rappresenta il primo punto di contatto tra i cittadini e il sistema sanitario. In un paese come l’Italia, dove i pronto soccorso sono intasati da accessi impropri che potrebbero essere gestiti altrove, dove le liste di attesa si allungano fino a rendere inutili certi esami diagnostici, dove il medico di base ha sempre meno tempo per ogni paziente perché oberato da burocrazia e adempimenti amministrativi, dotare questi professionisti di strumenti intelligenti significa rimettere al centro la figura del medico di famiglia, restituirgli quel ruolo di guida e riferimento che rischiava di perdersi.

Mia non è un chatbot per i pazienti che vogliono evitare la visita medica, è un assistente per il professionista sanitario che lo supporta nel momento della decisione clinica, quando un camice bianco si trova davanti a sintomi ambigui che potrebbero indicare patologie diverse, può interrogare la piattaforma e ricevere suggerimenti basati sulle ultime evidenze scientifiche, non diagnosi automatiche che sostituiscono il suo giudizio ma percorsi di ragionamento supportati dalla letteratura medica più aggiornata. Il medico rimane il decisore finale con tutta la responsabilità che questo comporta, ma ha a disposizione una biblioteca medica mondiale consultabile in tempo reale invece di dover fare affidamento solo sulla propria memoria e sulla propria esperienza.

Un’evoluzione particolarmente interessante del progetto italiano riguarda l’integrazione con il Piano Nazionale Esiti: la piattaforma potrà indicare al medico in quale ospedale è possibile trovare una determinata prestazione sanitaria, quali strutture hanno i migliori risultati per quel tipo di intervento, come ottimizzare il percorso di cura del paziente all’interno di un sistema sanitario complesso e frammentato. Quanti soldi pubblici si risparmiano, quante sofferenze si evitano ai pazienti e alle loro famiglie, se la persona viene indirizzata subito verso la struttura più appropriata invece di rimbalzare da un punto all’altro del sistema perdendo tempo prezioso?

Siamo all’inizio e questo è il punto

Sarò chiaro su un punto fondamentale: non sto dicendo che queste tecnologie siano perfette, non lo sono e probabilmente non lo saranno mai in senso assoluto perché la perfezione non appartiene alle cose umane. Siamo all’inizio di un percorso lungo e complesso, non alla fine di una strada già tracciata e ci saranno inevitabilmente errori da correggere, aggiustamenti da fare, ripensamenti da accettare, problemi che oggi non riusciamo nemmeno a immaginare. Ma è esattamente questo il punto che dovremmo cogliere: siamo all’inizio, c’è tutto il tempo per raddrizzare il tiro, per ottimizzare i processi, per costruire salvaguardie sempre più robuste, per imparare dagli errori e migliorare continuamente.

Abbiamo passato più di 10 anni a regalare la nostra identità e le nostre più personali abitudini ai Social e alle grandi piattaforme di acquisto on-line senza battere ciglio, possiamo tranquillamente aspettare che tutte queste idee siano sempre più affidabili e vicine a noi, per noi.

Uno studio condotto da ricercatori di UVA Health, Stanford e Harvard, pubblicato sugli Annals of Internal Medicine, ha mostrato che ChatGPT raggiunge un’accuratezza diagnostica del 92%, contro il 76% dei medici assistiti dall’AI e il 74% dei medici che utilizzano solo gli strumenti tradizionali. Il dato è significativo e merita attenzione, ma va letto con la cautela che ogni dato scientifico richiede: non significa che l’intelligenza artificiale sia migliore dei medici in senso assoluto, significa che può essere uno strumento di supporto straordinariamente potente se viene usato correttamente, se i professionisti imparano a dialogare con questi sistemi, se le istituzioni creano le condizioni per un’integrazione virtuosa.

E qui emerge una criticità importante che lo stesso studio evidenzia e che non possiamo ignorare: quando i medici hanno accesso all’intelligenza artificiale, non sempre la usano al meglio delle sue potenzialità, a volte la ignorano, a volte non sanno come interrogarla efficacemente, a volte non si fidano delle sue indicazioni. C’è bisogno di formazione seria e continuativa, di cambiare approcci consolidati da decenni, di imparare a dialogare con questi strumenti in modo produttivo. Il progetto Mia prevede proprio questo: un percorso formativo chiamato Mia Lab, con pillole asincrone che i medici possono seguire nei loro tempi, aule virtuali per approfondire i casi complessi, tutorial tecnici per padroneggiare lo strumento. Perché la tecnologia da sola non basta se non sappiamo usarla, se non investiamo nel fattore umano che rimane sempre decisivo.

Uno sguardo etico e prospettico

Le sfide etiche sono reali e vanno affrontate con la serietà che meritano, senza minimizzarle ma anche senza trasformarle in alibi per l’immobilismo. Il rischio di bias algoritmici che perpetuano o addirittura amplificano disuguaglianze esistenti nel sistema sanitario è concreto e richiede monitoraggio costante. Il pericolo che i pazienti si affidino troppo alle risposte dell’intelligenza artificiale trascurando sintomi gravi che richiederebbero attenzione immediata è una preoccupazione legittima che va gestita con comunicazione chiara. La questione della responsabilità quando qualcosa va storto, quando l’AI suggerisce un percorso che si rivela sbagliato, è un nodo giuridico che andrà sciolto con norme appropriate. Il digital divide che potrebbe escludere chi non ha accesso alla tecnologia, chi non ha le competenze per usarla, chi vive in aree dove la connettività è carente, è un tema di equità che non possiamo ignorare.

Ma queste sfide non si affrontano rifiutando il progresso tecnologico, non si risolvono voltandosi dall’altra parte e facendo finta che l’intelligenza artificiale non esista o che non stia già trasformando la sanità in tutto il mondo. Si affrontano governando il cambiamento con intelligenza e responsabilità, costruendo regole che tutelino senza soffocare, creando competenze che permettano di sfruttare le opportunità minimizzando i rischi. L’Italia ha fatto una scelta interessante puntando su una soluzione nazionale sviluppata da un’azienda italiana come Bv Tech, che mantiene i dati sotto il controllo del GDPR europeo e costruisce su fonti scientifiche certificate. È una via diversa da quella americana, più prudente, forse più lenta, ma con garanzie specifiche per il nostro contesto normativo e culturale.

ChatGPT Health, intanto, non è disponibile in Italia né nell’Unione Europea, proprio a causa delle normative sulla protezione dei dati sanitari che richiedono standard diversi da quelli americani. OpenAI ha annunciato un’espansione progressiva verso l’Europa, ma senza date precise perché le barriere da superare sono significative: la necessità di un equivalente europeo del Business Associate Agreement americano, l’adeguamento al GDPR per i dati speciali previsti dall’Articolo 9, le legittime preoccupazioni sulla sovranità dei dati sanitari dei cittadini europei. Sono ostacoli seri che richiederanno tempo per essere superati, ma che testimoniano anche l’attenzione dell’Europa verso la tutela dei propri cittadini.

La vera domanda

La vera sfida, come dico spesso qui a Il Punto Digitale, non è Italia contro USA, non è tecnologia nazionale contro Big Tech americana, non è pubblico contro privato in una contrapposizione sterile che non porta da nessuna parte.

La vera sfida è custodire l’umano mentre innoviamo il digitale, è assicurarci che l’intelligenza artificiale serva la medicina invece di asservirla, che potenzi il medico invece di renderlo superfluo, che informi il paziente invece di confonderlo o spaventarlo, è una sfida che richiede competenza tecnica ma anche saggezza umana, capacità di innovare ma anche di conservare ciò che funziona.

Ben vengano dunque queste iniziative che provano a costruire invece di limitarsi a criticare. Ben venga ChatGPT Health che prova a mettere ordine nel caos delle ricerche sanitarie fai-da-te che già avvengono ogni giorno. Ben venga MIA che dota i nostri medici di famiglia di una bussola scientifica aggiornata in tempo reale. Ben venga il dibattito, anche acceso, su come governare questi strumenti perché solo dal confronto nascono le soluzioni migliori.

Ma quando vi troverete a commentare indignati su questi temi, magari proprio sui social network che tanto amiamo, fermiamoci un secondo a riflettere e pensiamo a quante foto dei nostri figli abbiamo postato oggi su piattaforme che non sappiamo bene come useranno quelle immagini. Pensiamo a quante app hanno accesso alla nostra posizione in questo momento, tracciando ogni nostro spostamento. Pensiamo a quante volte abbiamo accettato termini di servizio senza leggerli, cliccando su “Accetto” per passare oltre il più velocemente possibile.


E poi chiediamoci, con l’onestà intellettuale che questo momento storico richiede: il vero dubbio è un’intelligenza artificiale che aiuta il medico a non sbagliare una diagnosi o siamo noi che abbiamo perso il senso delle proporzioni tra ciò che ci spaventa e ciò che dovrebbe davvero preoccuparci?

Articoli in evidenza