Intelligenza Artificiale: utilizzo per l'autodiagnosi medica
A cura di: Dr. Filippo PlacentinoL’intelligenza artificiale rappresenta una rivoluzione anche in ambito medico, offrendo strumenti potenzialmente utili al personale sanitario. Tuttavia, il suo utilizzo da parte di persone non qualificate sta favorendo un fenomeno sempre più rischioso: l’autodiagnosi. Studi recenti mostrano che le risposte fornite dall’IA non sono sempre accurate e possono essere prive di fonti attendibili, con conseguenze pericolose per la salute. Per questo è necessario adottare criteri rigorosi e affidarsi sempre al confronto medico.
Indice
- Utilizzo dell'Intelligenza Artificiale in medicina
- Quali problemi può portare se utilizzato da personale non sanitario?
- L'intelligenza artificiale è stata studiata in letteratura scientifica?
- Quali sono i dati più recenti dell'utilizzo dell'intelligenza artificiale per risolvere casi clinici?
- Perché l'intelligenza artificiale può sbagliare?
- Quali altri problemi possono esserci?
- Quali consigli possiamo dare?
Utilizzo dell'Intelligenza Artificiale in medicina
Personalmente penso che l'intelligenza artificiale stia cambiando il mondo, stia causando una vera e propria rivoluzione epocale e di questa rivoluzione la medicina non può e non deve restarne al di fuori in quanto davvero l'intelligenza artificiale può aiutare in maniera importante il personale sanitario.
Per approfondire:Intelligenza Artificiale: un aiuto nella diagnosi di infertilità maschile
Quali problemi può portare se utilizzato da personale non sanitario?
Diverso il discorso dell'utilizzo dell'intelligenza artificiale da parte di personale non sanitario. E uno dei problemi crescenti e sempre più pericolosi è quello dell'autodiagnosi, che già esisteva con il soltanto internet ad esempio con il famoso "Dottor Google", adesso con l'intelligenza artificiale che sembra di fornire delle cose personalizzate questo è un problema sempre più crescente e pericoloso da parte di chi poi non ha i mezzi e gli strumenti di poter verificare la veridicità di quanto viene detto.

L'intelligenza artificiale è stata studiata in letteratura scientifica?
Sono sempre più presenti in letteratura degli studi scientifici in cui sono stati sottoposti dei casi clinici reali all'intelligenza artificiale e i risultati dell'intelligenza artificiale sono stati confrontati con le diagnosi mediche accurate fatte anche nel tempo.
Si è visto che alcuni risultati sono più incoraggianti, altri un po' meno, purtroppo anche un piccolo margine di errore può rappresentare però un pericolo per la salute e quindi non possiamo tollerarlo.
Quali sono i dati più recenti dell'utilizzo dell'intelligenza artificiale per risolvere casi clinici?
Recentemente è stato pubblicato un interessante studio sul giornale europeo di patologia in cui degli scenari clinico patologici sono stati sottoposti all'intelligenza artificiale.
I risultati sono stati che:
- nel 32% dei casi soltanto la diagnosi era accurata e precisa,
- in circa il 70% invece la diagnosi era utile ma not del tutto accurata,
- in circa il 6% dei casi era del tutto errata.
Ma non è forse questo il dato più allarmante, in quanto quando veniva chiesta la reference, cioè la fonte dalla quale veniva presa l'informazione che dava l'intelligenza artificiale, si è vista che questa:
- nel 70% dei casi era accurata,
- in circa il 12% dei casi non era accurata,
- nel ben 18% dei casi era del tutto inesistente questa fonte.
Perché l'intelligenza artificiale può sbagliare?
I motivi per cui l'intelligenza artificiale può sbagliare sono tantissimi, ad esempio le informazioni vengono prese non solo da siti ufficiali e rinomati, ma anche da blog e siti personali dove le informazioni possono non essere accurate.
Inoltre è molto importante la chiarezza dell'esposizione e se immaginiamo che in questi studi sono stati medici a dare le informazioni all'intelligenza artificiale immaginiamo il rischio di errore più alto che ci può essere se questi vengono dati dai pazienti che hanno comunque un lessico per forza di cose meno specifico.
Quali altri problemi possono esserci?
Un altro problema che riguarda poi la sicurezza dell'intelligenza artificiale è il rischio di inquinamento dei dati. Si è visto da ricerche di ingegneria informatica che bastano 250 documenti con informazioni sbagliate per inquinare miliardi di documenti con invece informazioni corrette.
Quali consigli possiamo dare?
Nella mia pratica clinica occupandomi di aritmie e considerata la vasta disponibilità di dispositivi come orologi e cellulari che fanno l'ECG, è sempre più comune trovare persone che mettono sull'intelligenza artificiale questi ECG, oltre analisi del sangue e tutto il resto. Sinceramente non mi sento di frenare questa curiosità però assolutamente l'invito a non prendere come oro colato ciò che viene detto.
Guarda il video: Cosa sono le aritmie?
