Indica un intervallo di date:
  • Dal Al
scienze

Verso un’intelligenza artificiale responsabile in sanità: la European TRAIN Initiative

A marzo 2024 un consorzio di cinque sistemi sanitari statunitensi insieme a Microsoft la lanciato TRAIN, che si è allargata presto coinvolgendo oggi oltre 50 organizzazioni, tra cui istituti accademici, reti sanitarie di diverse dimensioni e aziende tecnologiche a livello globale. Obiettivo: monitorare, sviluppare e diffondere pratiche etiche e soluzioni tecnologiche per garantire l’adozione responsabile dell’Intelligenza Artificiale (IA) in sanità. L’iniziativa si propone di creare una rete operativa di attori del settore sanitario, promuovendo un’alleanza tecnologica che aiuti le organizzazioni sanitarie a integrare l’IA nei loro processi, migliorando così la qualità dell’assistenza.
Nei mesi scorsi è nata TRAIN-Europe, che collaborando con la sua controparte statunitense, US-TRAIN, vuole lavorare per una IA basata su principi etici condivisi. Si trovano pochissimi articoli online che ne parlano e non sembra esserci al momento un sito web dedicato. Ne scrive però la rivista medica JAMA, una delle più quotate a livello globale.

Della rete fa parte anche l’Italia con l’Università San Raffaele, che si affianca ad altre organizzazioni in tutta Europa: Erasmus MC (Paesi Bassi), HUS Helsinki University Hospital (Finlandia), Sahlgrenska University Hospital (Svezia), Skåne University Hospital (Svezia), e University Medical Center Utrecht (Paesi Bassi), con Microsoft come partner tecnologico abilitante. Foundation 29, un’organizzazione senza scopo di lucro che mira a responsabilizzare i pazienti e trasformare la sanità attraverso iniziative basate sui dati e tecnologie innovative, è anch’essa entrata a far parte del TRAIN europeo. La rete è aperta ad altre organizzazioni sanitarie in Europa che desiderano aderire.

Gli obiettivi della rete

Gli obiettivi operativi del consorzio includono la possibilità di fornire tecnologie e strumenti che consentano di operazionalizzare i principi di IA affidabile e responsabile su larga scala; collaborare con altri membri per condividere le migliori pratiche relative all’uso dell’IA in ambito sanitario, inclusa la sicurezza, l’affidabilità e il monitoraggio degli algoritmi di IA, e le competenze necessarie per gestire l’IA in modo responsabile. Dati e algoritmi di IA non saranno condivisi tra le organizzazioni membri o con terzi. Si lavorerà per abilitare la registrazione dell’IA utilizzata per le cure cliniche o le operazioni cliniche tramite un portale online sicuro e per fornire strumenti per misurare i risultati associati all’implementazione dell’IA, incluse le migliori pratiche per studiare l’efficacia e il valore dei metodi IA in ambito sanitario, e l’utilizzo di ambienti che preservano la privacy, con considerazioni in fase pre- e post-implementazione..

La situazione a oggi sulle regolamentazioni per l’IA

L’Artificial Intelligence (AI) Act dell’Unione Europea (13 marzo 2024) segna una svolta come la prima regolamentazione completa sull’IA al mondo, con un focus su un’intelligenza artificiale centrata sull’uomo e affidabile, specialmente nelle applicazioni mediche. Colmando le lacune lasciate da normative esistenti come il Regolamento sui Dispositivi Medici dell’UE (MDR), l’AI Act classifica l’IA medica come ad alto rischio. Tuttavia, il quadro normativo si basa sull’autovalutazione, imponendo a qualsiasi sistema IA in ambito sanitario di rispettare standard rigorosi di trasparenza, responsabilità e solidità, superando di gran lunga i requisiti statunitensi. Questo garantisce non solo efficacia e sicurezza, ma anche un utilizzo etico.

Per ridurre i potenziali rischi – scrivono gli autori – i regolatori europei propongono un approccio al ciclo di vita dell’IA, che va dallo sviluppo alla sorveglianza post-commercializzazione. Quest’ultima è essenziale per la sicurezza dei pazienti, assicurando che i modelli di IA continuino a rispettare gli standard dopo il rilascio. Sebbene i produttori siano responsabili di queste misure ai sensi dell’MDR, mancano dataset standardizzati e parametri di performance. Di conseguenza, gli ospedali necessitano di linee guida pratiche e unificate, allineate alle normative europee e nazionali in continua evoluzione. L’armonizzazione di questi processi con i quadri di governance locali sarà cruciale per integrare sistemi di gestione della qualità per le tecnologie di IA in ambito sanitario.

Nei prossimi anni – scrivono ancora gli autori su JAMA – oltre 126 nuove leggi e regolamenti influenzeranno l’IA, la cybersicurezza, le piattaforme digitali e la sanità. Tra i principali interventi legislativi figurano il Digital Markets Act, il Digital Services Act, il Data Act, l’AI Liability Directive e lo European Health Data Space (EHDS). Nel frattempo, gli Stati membri dell’UE mantengono la sovranità nazionale nell’adozione e implementazione di queste normative. A differenza dell’UE, gli Stati Uniti adottano un modello normativo decentralizzato e specifico per settore, con agenzie diverse che regolano la sanità (HIPAA), i dati dei consumatori (regolamenti FTC) e l’IA militare (direttive del Dipartimento della Difesa).
“Un bel guazzabuglio moderno”, direbbe Merlino.

Come partecipare a TRAIN Europe

Prima di aderire all’iniziativa, ospedali, istituti accademici e centri di ricerca devono valutare il proprio livello di preparazione attraverso una roadmap di maturità sull’intelligenza artificiale applicata alla sanità, identificando anche le aree che necessitano di miglioramento. È essenziale che le organizzazioni analizzino la propria infrastruttura tecnologica e la gestione dei dati, assicurandosi che le pratiche di IA siano conformi ai principi di responsabilità e sicurezza.

Per approfondire. 

I ricercatori in Europa hanno superato quota 2 milioni

Negli Usa le parole “transgender”, “LGBT” e “non binario” sono state bandite dal linguaggio ufficiale della scienza

Tuo figlio probabilmente mangia troppi zuccheri ma forse non te ne rendi conto