Con l’introduzione crescente dell’intelligenza artificiale (AI) nel settore sanitario, le organizzazioni e i clinici devono adottare misure per garantire una sua implementazione sicura e un uso corretto nei contesti clinici reali
Con l’introduzione sempre più diffusa dell’intelligenza artificiale (IA) in sanità, è fondamentale garantire la sua applicazione sicura nei contesti clinici reali. Questo è il messaggio principale di un articolo pubblicato sul Journal of the American Medical Association e cofirmato da Dean Sittig, professore presso la McWilliams School of Biomedical Informatics dell’UTHealth Houston, e Hardeep Singh, professore al Baylor College of Medicine.

AI in sanità: misure pratiche
L’AI ha il potenziale per rivoluzionare l’assistenza medica, ma senza adeguate misure di sicurezza potrebbe generare risultati falsi o fuorvianti, con il rischio di danneggiare i pazienti. Per questo, si rendono necessarie delle linee guida per un utilizzo sicuro nella pratica sanitaria.
Basandosi su diversi tipi di pubblicazioni, come expert opinion, revisioni della letteratura e sulle esperienze con l’uso e la valutazione della sicurezza delle tecnologie sanitarie, gli autori di questa recente pubblicazione propongono un approccio pratico per monitorare e gestire i sistemi di IA all’interno delle organizzazioni sanitarie.
Le principali misure pratiche racchiuse nel loro documento sono le seguenti:
- Test rigorosi: consultare le linee guida pubblicate su riviste peer-reviewed e condurre test sul campo per confermare la sicurezza e l’efficacia dell’IA.
- Comitati dedicati: istituire gruppi di esperti multidisciplinari per supervisionare l’implementazione dell’IA, garantire il rispetto dei protocolli di sicurezza e monitorare le prestazioni dei sistemi.
- Formazione e trasparenza: formare i clinici sui rischi e sull’utilizzo dell’IA, informando al contempo i pazienti quando questa viene utilizzata nelle loro cure, per rafforzare la fiducia.
- Inventario e valutazioni periodiche: mantenere un elenco dettagliato dei sistemi di IA in uso e sottoporli a controlli regolari per identificare e mitigare eventuali rischi.
- Piani di emergenza: sviluppare procedure per disattivare i sistemi di IA in caso di malfunzionamenti, assicurando una transizione fluida ai processi manuali.

AI in sanità, una responsabilità condivisa
Secondo gli autori, l’implementazione dell’IA nei contesti clinici dovrebbe essere una responsabilità condivisa tra fornitori di assistenza, sviluppatori di IA e fornitori di sistemi elettronici sanitari. Solo attraverso una collaborazione di questo tipo è possibile costruire fiducia e promuovere un’adozione sicura dell’IA in sanità. Queste raccomandazioni rappresentano, quindi, un passo fondamentale per sfruttare al meglio il potenziale dell’AI, mantenendo al centro degli obiettivi sempre la sicurezza e il benessere dei pazienti.
Fonte
- Sittig DF, Singh H. Recommendations to Ensure Safety of AI in Real-World Clinical Care. JAMA. Published online November 27, 2024.