OMS: L’Intelligenza Artificiale Generativa nel Settore Sanitario

Categories: Intelligenza ArtificialePublished On: 29 Settembre 2025Last Updated: 29 Settembre 2025Tags: ,

L’Intelligenza Artificiale (IA) sta trasformando rapidamente quasi tutti i settori, e la sanità non fa eccezione. In particolare, una categoria di IA, nota come IA Generativa, addestrata su set di dati per creare nuovi contenuti come testo, immagini o video, ha visto un’adozione senza precedenti.

Al centro di questa rivoluzione ci sono i Modelli Multi-Modali di grandi dimensioni (LMM), spesso chiamati anche “modelli fondamentali per scopi generali”. Gli LMM si distinguono perché possono accettare diversi tipi di dati in ingresso (come testo, dati genomici, immagini mediche, dati da biosensori) e generare output diversi che non sono limitati al tipo di dati forniti.

Leggi le linee guida OMS del 2024

Riconoscendo l’impatto trasformativo e i rischi unici di questa tecnologia, l’Organizzazione Mondiale della Sanità (OMS) ha pubblicato nel 2024 una guida completa sull’etica e la governance degli LMM per la salute. Questa guida si basa sui sei principi etici fondamentali stabiliti dall’OMS nel 2021, che devono guidare lo sviluppo e l’uso dell’IA nel settore sanitario da parte di tutti gli stakeholder:

  1. Proteggere l’autonomia.
  2. Promuovere il benessere, la sicurezza umana e l’interesse pubblico.
  3. Garantire trasparenza, “spiegabilità” e intelligibilità.
  4. Incoraggiare responsabilità e rendicontabilità.
  5. Garantire inclusività ed equità.
  6. Promuovere un’IA reattiva e sostenibile.

1. Applicazioni Trasformative degli LMM nella Sanità

Sebbene le potenziali applicazioni degli LMM siano simili a quelle di altre forme di IA, la loro modalità di accesso e utilizzo introduce benefici e rischi nuovi.

Diagnosi e Assistenza Clinica

Gli LMM promettono di estendere l’uso dei sistemi basati sull’IA in tutta la diagnostica e l’assistenza clinica. Sono visti come particolarmente promettenti per:

  • Gestione di casi complessi: Possono aiutare a identificare diagnosi rare o “presentazioni insolite”.
  • Riduzione del carico amministrativo: Possono ridurre il carico di comunicazione per gli operatori sanitari (la cosiddetta “liberazione della tastiera” – keyboard liberation). Per esempio, possono leggere i messaggi dei pazienti e redigere risposte preliminari per i medici.
  • Analisi dei dati: Possono scansionare rapidamente l’intera cartella clinica di un paziente, fornendo intuizioni che i medici potrebbero impiegare molto più tempo a trovare.

Applicazioni Centrate sul Paziente

Gli LMM possono accelerare l’uso dell’IA da parte dei pazienti e dei non specialisti per scopi medici.

  • Assistenti virtuali personalizzati: Chatbot potenziati da LMM, utilizzando dati diversi, possono servire come assistenti sanitari virtuali altamente personalizzati, fornendo risposte a domande relative alla salute o supportando la gestione di condizioni mediche.
  • Informazioni e supporto: Possono sostituire i motori di ricerca per l’auto-diagnosi e la ricerca di informazioni mediche, anche se questo comporta rischi significativi se l’utente non ha esperienza medica.

Compiti Amministrativi e Ricerca

Gli LMM sono essenziali anche per alleggerire gli oneri burocratici che contribuiscono al burnout degli operatori sanitari. Possono aiutare a completare le cartelle cliniche elettroniche, assistere nella traduzione linguistica e redigere note cliniche.

In ricerca scientifica e sviluppo di farmaci, gli LMM possono generare approfondimenti da dati scientifici, riassumere articoli accademici, e supportare la progettazione de novo di farmaci.

2. Sfide e Rischi Etici e Sistemici

L’uso degli LMM introduce rischi significativi, sia a livello individuale che sistemico, che devono essere affrontati con urgenza.

Rischi di Precisione e Bias

Uno dei rischi più noti è la propensione degli LMM a produrre risposte inaccurate, incomplete o false, note colloquialmente come “allucinazioni”. Queste risposte false sono spesso indistinguibili da quelle fattualmente accurate, perché i modelli sono addestrati a produrre informazioni che appaiono come fatti, non necessariamente fatti reali.

Inoltre, gli LMM rischiano di codificare e automatizzare il bias. I set di dati di addestramento sono spesso distorti, escludendo donne, minoranze etniche, anziani e prospettive provenienti da paesi a basso e medio reddito (LMICs). Questo può portare a raccomandazioni che sono appropriate solo in contesti ad alto reddito.

Rischi per l’Umanità e l’Autonomia

  • Bias di Automazione e Degradazione delle Competenze: L’uso degli LMM può incoraggiare il bias di automazione, dove i professionisti sanitari si affidano acriticamente all’output dell’IA e trascurano errori che avrebbero dovuto essere individuati da un umano. A lungo termine, ciò può degradare le competenze dei clinici, portando a una “de-skilling morale” o alla difficoltà di operare in caso di guasto del sistema.
  • Privacy e Manipolazione: L’uso da parte dei pazienti solleva preoccupazioni sulla privacy, in quanto le informazioni sensibili inserite in un LMM potrebbero non rimanere riservate e potrebbero essere utilizzate per migliorare i modelli stessi. Inoltre, i chatbot potrebbero diventare emotivamente manipolativi o persuasivi, spingendo gli utenti ad azioni contrarie al loro benessere.

Rischi Societali e Sistemici

  • Dominanza delle Grandi Aziende Tecnologiche: Lo sviluppo degli LMM richiede risorse finanziarie, computazionali e umane immense. Questo rafforza il dominio di poche grandi aziende tecnologiche, potenzialmente mettendo in ombra università, startup e governi, influenzando anche le priorità della ricerca. Questa situazione può portare a una insufficiente aderenza all’etica aziendale e a una mancanza di trasparenza.
  • Impronta Ambientale: Gli LMM hanno un significativo impatto ambientale a causa del grande consumo di energia per l’addestramento (con conseguente impronta di carbonio) e un’enorme impronta idrica. L’addestramento di un primo LMM ha consumato una quantità di acqua dolce stimata in 700.000 litri.
  • Inaffidabilità Regolatoria: Molti LMM attuali potrebbero violare le normative esistenti, come il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea, a causa del modo in cui i dati vengono raccolti (spesso senza consenso), della mancanza di trasparenza e della tendenza alle allucinazioni.

3. Governance degli LMM lungo la Catena del Valore dell’IA

La governance etica e normativa degli LMM è essenziale. L’OMS suggerisce di inquadrare la governance nelle tre fasi della catena del valore dell’IA: Sviluppo, Fornitura e Implementazione. La responsabilità di mitigare i rischi ricade sui diversi attori in ogni fase.

Fase di Sviluppo (Sviluppatori)

La responsabilità primaria di affrontare rischi come il bias, la privacy e l’impronta ambientale spetta agli sviluppatori.

Cosa possono fare gli Sviluppatori?

  • Certificazione Etica: Assicurare che il personale scientifico e di programmazione riceva certificazioni o formazioni etiche.
  • Trasparenza dei Dati: Essere trasparenti sui dati utilizzati per l’addestramento, in modo che gli utilizzatori successivi siano consapevoli di eventuali incompletezze o carenze.
  • Inclusività del Design: Coinvolgere gli utenti finali (medici, ricercatori, pazienti) nelle prime fasi di sviluppo (ad esempio tramite “collegi di supervisione umana”) per sollevare questioni etiche e garantire che i modelli siano allineati ai principi di inclusività ed equità.
  • Design per la Sostenibilità: Adottare misure per migliorare l’efficienza energetica dei modelli e ridurre l’impronta di carbonio e idrica.

Ruolo del Governo:

  • Applicazione Legale: Applicare leggi rigorose sulla protezione dei dati, garantendo che i dati sanitari siano raccolti con un consenso informato significativo.
  • Standard di Progettazione: Richiedere che lo sviluppo raggiunga risultati specifici (prevedibilità, interpretabilità, sicurezza, cybersecurity).
  • Infrastrutture Pubbliche: Investire in infrastrutture pubbliche o no-profit (potenza di calcolo, set di dati pubblici) per incoraggiare lo sviluppo di LMM nell’interesse pubblico e livellare il campo da gioco.

Fase di Fornitura (Fornitori)

I governi devono valutare e regolamentare l’uso degli LMM nel settore sanitario prima della loro implementazione.

Ruolo del Governo:

  • Trasparenza Obbligatoria: Richiedere la divulgazione di aspetti chiave dell’LMM, inclusi codice sorgente, dati di input e risultati dei test interni, per consentire una valutazione della sicurezza e dell’efficacia.
  • Valutazione dei Diritti Umani: Tutte le applicazioni di IA, indipendentemente dal livello di rischio o dal potenziale beneficio, devono rispettare i diritti umani e gli standard etici (approccio basato sui diritti, non solo sui rischi). I governi dovrebbero imporre valutazioni d’impatto che coprano etica, diritti umani, sicurezza e protezione dei dati.
  • Regolamentazione dei Dispositivi Medici: Gli LMM o le applicazioni che forniscono consulenza medica sono probabilmente classificabili come dispositivi medici e devono soddisfare i requisiti normativi, inclusa la prova di performance basata su studi clinici (non solo confronti con set di dati esistenti in laboratorio).

Fase di Implementazione (Utilizzatori/Deployer)

Anche dopo l’approvazione, i rischi permangono a causa dell’imprevedibilità degli LMM.

Responsabilità degli Implementatori e dei Governi:

  • Comunicazione dei Rischi: Gli implementatori (ospedali, ministeri) devono comunicare chiaramente i rischi noti e gli errori che possono derivare dall’uso di un LMM, evitando che gli avvertimenti siano nascosti in caratteri piccoli.
  • Formazione del Personale Sanitario: I governi devono garantire che gli operatori sanitari siano adeguatamente formati per comprendere come gli LMM prendono decisioni, i limiti del loro uso, i metodi per evitare il bias di automazione e i rischi di cybersecurity.
  • Accessibilità e Affordability: Gli implementatori devono garantire che i prezzi o gli abbonamenti per l’uso degli LMM siano in linea con le capacità di pagamento e che i modelli siano disponibili in lingue e script diversi, per raggiungere le popolazioni altrimenti escluse.
  • Audit Post-Rilascio: I governi dovrebbero introdurre audit e valutazioni d’impatto obbligatori, eseguiti da terze parti indipendenti, dopo l’implementazione su larga scala, con risultati pubblicati.

4. La Necessità di un Quadro di Responsabilità (Liability)

Poiché errori e danni agli individui sono inevitabili con l’uso diffuso degli LMM, le norme sulla responsabilità devono garantire che le vittime siano adeguatamente risarcite e abbiano accesso a forme di riparazione.

I governi dovrebbero stabilire chiaramente la responsabilità lungo l’intera catena del valore (sviluppatore, fornitore, implementatore). Si potrebbe adottare la presunzione di causalità, per cui se la vittima dimostra che una parte non ha rispettato un obbligo pertinente e che un legame causale con le prestazioni dell’IA è probabile, la non conformità è presunta come causa del danno. In alternativa, si potrebbe considerare l’introduzione di uno standard di responsabilità oggettiva (strict liability) per i danni derivanti dall’implementazione di un LMM, garantendo il risarcimento anche se l’assegnazione della colpa è complessa.

Conclusioni

Il successo e la sostenibilità degli LMM nella sanità a livello globale dipendono dalla cooperazione internazionale. I governi devono lavorare insieme per costruire nuove strutture istituzionali e regole internazionali per la governance dell’IA.

È fondamentale che tale governance non sia plasmata unicamente dai paesi ad alto reddito o dalle grandi aziende tecnologiche che lavorano con essi. Standard definiti in modo unilaterale lascerebbero la maggior parte dell’umanità, in particolare nei paesi a basso e medio reddito, priva di voce e, di conseguenza, renderebbe le future tecnologie IA potenzialmente inefficaci o pericolose proprio dove potrebbero apportare i maggiori benefici. Solo ponendo l’etica e i diritti umani al centro dello sviluppo e dell’implementazione degli LMM si potrà contribuire significativamente al raggiungimento della copertura sanitaria universale.

Total Views: 375Daily Views: 1