Intelligenza Artificiale in Medicina: Cosa Cambia per Te come Paziente
- antoniodaffina
- 20 apr
- Tempo di lettura: 10 min
A cura del Dott. A. Daffinà — 20 Aprile 2026
L'intelligenza artificiale è ovunque. Nei nostri telefoni, nelle ricerche su Google, nelle risposte che ci dà ChatGPT quando gli chiediamo qualcosa. E sempre più spesso sentiamo parlare di IA anche in medicina: diagnosi fatte dai computer, robot che operano, algoritmi che leggono le radiografie.
Ma cosa significa davvero? E soprattutto: possiamo fidarci?
La risposta, come spesso accade in medicina, è: "dipende". E dipende soprattutto da quale tipo di intelligenza artificiale stiamo usando.
Due mondi completamente diversi
Quando parliamo di intelligenza artificiale in medicina, dobbiamo distinguere due realtà che hanno poco in comune, anche se condividono lo stesso nome.
Da una parte c'è l'IA generalista: i chatbot come ChatGPT, Gemini, Copilot, le risposte automatiche dei motori di ricerca, gli assistenti vocali. Sono strumenti potentissimi, capaci di rispondere a qualsiasi domanda in modo apparentemente competente. Ma — e questo è il punto cruciale — non sono stati progettati per la medicina e non sono dispositivi medici certificati.
Dall'altra parte c'è l'IA medica specializzata: software sviluppati specificamente per compiti clinici precisi, addestrati su database medici validati, sottoposti a rigorosi processi di certificazione prima di poter essere utilizzati sui pazienti. Questi sono veri e propri dispositivi medici, regolamentati in modo simile a un farmaco o uno strumento chirurgico.
La differenza non è sottile: è fondamentale.
Il problema delle fonti: da dove viene la "conoscenza"?
Quando ChatGPT o un altro chatbot di intelligenza artificiale risponde a una domanda medica, da dove prende le informazioni?
La risposta è: da internet. Da libri, articoli, siti web, forum, social media — tutto ciò che era disponibile online al momento del suo addestramento. [1] Non c'è distinzione, o quasi, tra una linea guida pubblicata da una società scientifica internazionale e un post su un blog scritto da chiunque, soprattutto se condiviso più volte. Non c'è verifica della qualità delle fonti. Non c'è aggiornamento in tempo reale.
In tempi più recenti, modelli di IA come Gemini o ChatGPT cercano informazioni su internet in tempo reale e provano a dare priorità a fonti autorevoli. Tuttavia, anche così, possono fraintendere il contesto clinico o omettere informazioni importanti che solo un software certificato — o un medico — saprebbe gestire.
I sistemi di IA ne sono consapevoli: per questo mostrano avvisi che invitano sempre a consultare un medico per diagnosi, pareri o terapie.
Il risultato? Risposte che sembrano corrette, scritte in modo convincente e professionale, ma che possono contenere errori, imprecisioni o informazioni obsolete. [2-3] Uno studio pubblicato su JAMA Network Open ha valutato l'accuratezza delle risposte di ChatGPT a domande mediche formulate da medici specialisti: il punteggio medio era "tra il quasi completamente corretto e il corretto", ma con variabilità significativa e casi di errori importanti. [4]
Un altro studio ha documentato che ChatGPT fornisce risposte in accordo con le linee guida cliniche solo nel 60% dei casi. [3] E, cosa ancora più preoccupante, può inventare riferimenti bibliografici che non esistono — un fenomeno chiamato "allucinazione". [5-6]
Come medico, posso riconoscere quando una risposta è sbagliata o fuorviante. Ma un paziente senza formazione medica? Molto più difficile.
L'IA medica certificata: un altro pianeta
L'intelligenza artificiale medica specializzata funziona in modo completamente diverso.
Prendiamo l'esempio della radiomica — l'analisi computerizzata delle immagini radiologiche. Un software di radiomica non è stato addestrato su internet: è stato sviluppato utilizzando migliaia di immagini TC o RM validate da radiologi esperti, con diagnosi confermate, provenienti da database clinici strutturati. [7-9]
Questi algoritmi imparano a riconoscere pattern invisibili all'occhio umano: caratteristiche delle lesioni che predicono se un tumore risponderà alla chemioterapia, se una frattura è a rischio di complicanze, se un nodulo polmonare è benigno o maligno. [10-11]
Ma prima di poter essere utilizzati sui pazienti, questi software devono superare un processo di certificazione rigoroso. Negli Stati Uniti, la FDA (Food and Drug Administration) ha autorizzato oltre 1400 dispositivi medici (dato di marzo 2026) basati su intelligenza artificiale. [12-13] In Europa, devono ottenere la marcatura CE secondo il Regolamento sui Dispositivi Medici e, dal 2024, rispettare anche l'AI Act europeo. [14-15]
Questo significa:
Validazione clinica su popolazioni reali
Dimostrazione di sicurezza ed efficacia
Monitoraggio post-commercializzazione
Trasparenza sulle limitazioni
È la stessa logica che si applica a un farmaco o a una protesi: prima di arrivare al paziente, deve dimostrare di funzionare e di essere sicuro.
Esempi concreti: dove l'IA medica sta già funzionando
L'intelligenza artificiale medica certificata sta già cambiando la pratica clinica in diversi ambiti.
Radiologia. Algoritmi approvati dalla FDA aiutano i radiologi a identificare fratture, emorragie cerebrali, noduli polmonari, embolia polmonare. Non sostituiscono il radiologo, ma lo supportano — segnalando i casi urgenti, riducendo il rischio di errori, velocizzando i tempi di refertazione. [11]
Anatomia patologica. Software di analisi delle immagini istologiche aiutano i patologi a classificare i tumori, identificare caratteristiche prognostiche, standardizzare le diagnosi. [16]
Chirurgia ortopedica. Sistemi di pianificazione preoperatoria basati su IA analizzano le immagini del paziente e suggeriscono la dimensione ottimale delle protesi, riducendo gli errori di sizing e migliorando i risultati funzionali. [17-19]
Cardiologia. Algoritmi analizzano gli elettrocardiogrammi per identificare aritmie, fibrillazione atriale, segni precoci di insufficienza cardiaca. [16]
Anche in chirurgia colorettale, sistemi di IA certificati come dispositivi medici stanno emergendo per l'analisi delle immagini endoscopiche: durante la colonscopia, aiutano il medico a identificare polipi e lesioni precancerose che altrimenti potrebbero sfuggire, con un miglioramento documentato da oltre 44 studi clinici su più di 36.000 pazienti. [21-23]
In tutti questi casi, l'IA non lavora da sola: affianca il medico, fornendo un secondo parere oggettivo e riproducibile.

Perché questa distinzione è importante per te
Se stai cercando informazioni sulla tua salute online — e probabilmente lo fai, come la maggior parte delle persone — è fondamentale capire con cosa stai interagendo.
ChatGPT e simili possono essere utili per:
Capire in termini semplici cos'è una malattia
Avere un'idea generale di cosa aspettarsi da un esame o un intervento
Formulare domande da porre al medico
Ma non sono affidabili per:
Fare autodiagnosi
Decidere se un sintomo è grave o meno
Scegliere una terapia
Interpretare i risultati di un esame
Le risposte che ricevi sono "verosimilmente corrette" — nel senso che assomigliano a risposte corrette, sono scritte in modo convincente, ma non c'è garanzia che lo siano davvero. E quando si tratta della tua salute, "verosimile" non basta.
L'IA medica certificata, invece, è uno strumento che il tuo medico può utilizzare — consapevolmente, con le dovute precauzioni, conoscendone i limiti — per migliorare la qualità delle cure che ti offre.
Il futuro: verso un'IA medica sempre più integrata
La ricerca sta andando verso lo sviluppo di quella che viene chiamata "Generalist Medical AI" (GMAI): sistemi di intelligenza artificiale progettati specificamente per la medicina, capaci di integrare dati clinici, immagini, risultati di laboratorio e testi medici per supportare decisioni complesse. [20]
Ma anche questi sistemi, per essere utilizzati nella pratica clinica, dovranno superare processi di validazione rigorosi. La FDA e le autorità europee stanno già lavorando a framework regolatori specifici per l'IA in medicina, riconoscendo che questi strumenti richiedono un approccio diverso rispetto ai dispositivi medici tradizionali. [12]
L'obiettivo non è sostituire il medico, ma potenziarne le capacità: ridurre gli errori, velocizzare le diagnosi, personalizzare i trattamenti. Con la supervisione umana sempre al centro.
Il mio consiglio
Usa pure ChatGPT per capire meglio cosa ti ha detto il medico, per prepararti a una visita, per soddisfare una curiosità. Ma non usarlo per prendere decisioni sulla tua salute. l'IA generalista è progettata per essere piacevole e convincente. Questo è pericoloso in medicina, perché una risposta sbagliata, se scritta con tono autorevole, viene creduta più facilmente.
Quando il tuo medico ti dice che ha utilizzato un software di intelligenza artificiale per analizzare la tua TAC o pianificare il tuo intervento, sappi che si tratta di uno strumento completamente diverso da quello a cui puoi accedere tu: si tratta di uno strumento certificato, validato, progettato per quel compito specifico.
La tecnologia può essere un alleato prezioso della medicina. Ma solo quando è usata nel modo giusto.
Domande frequenti sull'intelligenza artificiale in medicina
Posso fidarmi di ChatGPT per avere informazioni sulla mia salute?
ChatGPT e altri assistenti IA generalisti possono essere utili per orientarsi su argomenti di salute generale, ma non sono strumenti diagnostici. Le loro risposte sono "verosimili" — cioè sembrano corrette — ma non sono verificate da fonti mediche certificate. Studi recenti indicano che l'accuratezza di questi sistemi si aggira intorno al 50-60%, con variazioni significative a seconda dell'argomento. Per qualsiasi dubbio sulla propria salute, il riferimento resta sempre il medico.
Qual è la differenza tra ChatGPT e l'IA usata dal mio medico?
La differenza fondamentale sta nelle fonti e nella certificazione. ChatGPT attinge da internet senza validazione delle informazioni e non è un dispositivo medico. L'IA utilizzata in ambito clinico — ad esempio per analizzare una TAC, una risonanza magnetica o le immagini di una colonscopia — è invece un dispositivo medico certificato (FDA negli USA, marchio CE in Europa), costruito su database clinici validati e utilizzato sotto la supervisione di un medico specialista.
L'IA può sbagliare una diagnosi?
Sì, qualsiasi sistema di IA può commettere errori. La differenza sta nel contesto: l'IA medica certificata è progettata per assistere il medico, non per sostituirlo. La decisione finale spetta sempre al professionista, che integra le informazioni fornite dall'IA con la propria esperienza clinica e la conoscenza del singolo paziente. L'IA generalista, invece, non ha alcuna supervisione e l'utente potrebbe non essere in grado di riconoscere un errore.
L'IA sostituirà i medici?
No. L'IA medica è uno strumento di supporto, non un sostituto del medico. Può analizzare grandi quantità di dati in tempi rapidissimi, identificare pattern difficili da cogliere a occhio nudo e ridurre il rischio di errori umani, ma non può sostituire il ragionamento clinico, l'empatia e la capacità di adattare le decisioni al singolo paziente. Il futuro della medicina è nella collaborazione tra intelligenza umana e artificiale.
Come faccio a sapere se un'IA medica è affidabile?
Un'IA medica affidabile deve essere certificata come dispositivo medico da enti regolatori riconosciuti: la FDA (Food and Drug Administration) negli Stati Uniti, il marchio CE in Europa, e deve rispettare le normative vigenti come l'AI Act europeo. Inoltre, deve essere utilizzata sotto la supervisione di un medico specialista e i suoi risultati devono essere validati da studi clinici pubblicati su riviste scientifiche.
Perché le risposte di ChatGPT sembrano così convincenti anche quando sono sbagliate?
I modelli linguistici come ChatGPT sono progettati per generare testo fluido e coerente, non per verificare la correttezza delle informazioni. Questo significa che una risposta può essere formulata in modo impeccabile dal punto di vista linguistico, ma contenere errori fattuali. È il fenomeno delle "allucinazioni": l'IA inventa informazioni plausibili ma false. Per questo motivo, in ambito medico, è fondamentale affidarsi a sistemi certificati e alla supervisione di professionisti.
L'IA viene già usata in proctologia?
Sì. In ambito colorettale, sistemi di IA certificati come dispositivi medici vengono utilizzati durante la colonscopia per aiutare il medico a identificare polipi e lesioni precancerose. Studi su oltre 36.000 pazienti hanno dimostrato che questi sistemi migliorano significativamente il tasso di rilevamento delle lesioni, riducendo il rischio che sfuggano all'esame. Si tratta di un esempio concreto di come l'IA medica certificata possa migliorare la qualità delle cure.
Cosa significa "verosimile non è verificato"?
È il concetto chiave per comprendere i limiti dell'IA generalista. Una risposta "verosimile" è una risposta che sembra corretta, che è formulata in modo convincente e che potrebbe essere vera. Ma "verosimile" non significa "verificato": senza un controllo delle fonti e una validazione clinica, non c'è garanzia che l'informazione sia accurata. In medicina, questa differenza può avere conseguenze importanti.
Bibliografia
Lee P, Bubeck S, Petro J. Benefits, Limits, and Risks of GPT-4 as an AI Chatbot for Medicine. N Engl J Med. 2023;388(13):1233-1239. doi:10.1056/NEJMsr2214184
Wang L, Wan Z, Ni C, et al. Applications and Concerns of ChatGPT and Other Conversational Large Language Models in Health Care: Systematic Review. J Med Internet Res. 2024;26:e22769. doi:10.2196/22769
Walker HL, Ghani S, Kuemmerli C, et al. Reliability of Medical Information Provided by ChatGPT: Assessment Against Clinical Guidelines and Patient Information Quality Instrument. J Med Internet Res. 2023;25:e47479. doi:10.2196/47479
Goodman RS, Patrinely JR, Stone CA, et al. Accuracy and Reliability of Chatbot Responses to Physician Questions. JAMA Netw Open. 2023;6(10):e2336483. doi:10.1001/jamanetworkopen.2023.36483
Shiferaw MW, Zheng T, Winter A, Mike LA, Chan LN. Assessing the Accuracy and Quality of Artificial Intelligence (AI) Chatbot-Generated Responses in Making Patient-Specific Drug-Therapy and Healthcare-Related Decisions. BMC Med Inform Decis Mak. 2024;24(1):404. doi:10.1186/s12911-024-02824-5
Fatima A, Shafique MA, Alam K, Fadlalla Ahmed TK, Mustafa MS. ChatGPT in Medicine: A Cross-Disciplinary Systematic Review of ChatGPT's (Artificial Intelligence) Role in Research, Clinical Practice, Education, and Patient Interaction. Medicine. 2024;103(32):e39250. doi:10.1097/MD.0000000000039250
Linton-Reid K, Chen M, Martell MB, Posma JM, Aboagye EO. Radiomics in Clinical Radiology: Advances, Challenges, and Future Directions. Clin Radiol. 2025;92:107165. doi:10.1016/j.crad.2025.107165
Shur JD, Doran SJ, Kumar S, et al. Radiomics in Oncology: A Practical Guide. Radiographics. 2021;41(6):1717-1732. doi:10.1148/rg.2021210037
Rogers W, Thulasi Seetha S, Refaee TAG, et al. Radiomics: From Qualitative to Quantitative Imaging. Br J Radiol. 2020;93(1108):20190948. doi:10.1259/bjr.20190948
Fritz B, Yi PH, Kijowski R, Fritz J. Radiomics and Deep Learning for Disease Detection in Musculoskeletal Radiology: An Overview of Novel MRI- and CT-Based Approaches. Invest Radiol. 2023;58(1):3-13. doi:10.1097/RLI.0000000000000907
Rajpurkar P, Lungren MP. The Current and Future State of AI Interpretation of Medical Images. N Engl J Med. 2023;388(21):1981-1990. doi:10.1056/NEJMra2301725
Warraich HJ, Tazbaz T, Califf RM. FDA Perspective on the Regulation of Artificial Intelligence in Health Care and Biomedicine. JAMA. 2025;333(3):241-247. doi:10.1001/jama.2024.21451
Lin JC, Jain B, Iyer JM, et al. Benefit-Risk Reporting for FDA-Cleared Artificial Intelligence-Enabled Medical Devices. JAMA Health Forum. 2025;6(9):e253351. doi:10.1001/jamahealthforum.2025.3351
Fraser AG, Biasin E, Bijnens B, et al. Artificial Intelligence in Medical Device Software and High-Risk Medical Devices - A Review of Definitions, Expert Recommendations and Regulatory Initiatives. Expert Rev Med Devices. 2023;20(6):467-491. doi:10.1080/17434440.2023.2184685
Pesapane F, De Cecco C, Wang H, Hauglid MK, Sardanelli F. Artificial Intelligence as Medical Device in Radiology in 2025: The Regulatory Scenario in the EU, USA, and China. Eur Radiol. 2026. doi:10.1007/s00330-026-12460-4
Sahni NR, Carrus B. Artificial Intelligence in U.S. Health Care Delivery. N Engl J Med. 2023;389(4):348-358. doi:10.1056/NEJMra2204673
Glinkowski WM, Spalińska A, Wołk A, Wołk K. Artificial Intelligence in Orthopaedics: Clinical Performance, Limitations, and Translational Readiness - A Review. J Clin Med. 2026;15(5):1751. doi:10.3390/jcm15051751
Huffman N, Pasqualini I, Khan ST, et al. Enabling Personalized Medicine in Orthopaedic Surgery Through Artificial Intelligence: A Critical Analysis Review. JBJS Rev. 2024;12(3):01874474-202403000-00006. doi:10.2106/JBJS.RVW.23.00232
Misir A, Yuce A. AI in Orthopedic Research: A Comprehensive Review. J Orthop Res. 2025;43(8):1508-1527. doi:10.1002/jor.26109
Moor M, Banerjee O, Abad ZSH, et al. Foundation Models for Generalist Medical Artificial Intelligence. Nature. 2023;616(7956):259-265. doi:10.1038/s41586-023-05881-4
Sultan S, Shung DL, Kolb JM, et al. AGA Living Clinical Practice Guideline on Computer-Aided Detection-Assisted Colonoscopy. Gastroenterology. 2025;168(4):691-700. doi:10.1053/j.gastro.2025.01.002.
Soleymanjahi S, Huebner J, Elmansy L, et al. Artificial Intelligence-Assisted Colonoscopy for Polyp Detection: A Systematic Review and Meta-Analysis. Ann Intern Med. 2024;177(12):1652-1663. doi:10.7326/ANNALS-24-00981.
Hassan C, Bisschops R, Sharma P, Mori Y. Colon Cancer Screening, Surveillance, and Treatment: Novel Artificial Intelligence Driving Strategies in the Management of Colon Lesions. Gastroenterology. 2025;S0016-5085(25)00478-0. doi:10.1053/j.gastro.2025.02.021.

Commenti