Roma, 16 gennaio – Le agenzie regolatorie dell’Unione europea e degli USA, Ema e Fda, hanno definito e condiviso dieci principi per l’uso corretto dell’intelligenza artificiale lungo l’intero percorso dei farmaci, a partire dalla ricerca preclinica e clinica fino alla produzione, l’immissione nel mercato e la sorveglianza sulla sicurezza.
L’obiettivo è promuovere pratiche di Ai sicure, etiche e allineate tra le due sponde dell’Atlantico, rafforzando al contempo la cooperazione internazionale tra autorità regolatorie. I principi forniscono un orientamento generale sull’impiego dell’Ai nella generazione delle evidenze scientifiche e nel monitoraggio dei farmaci in tutte le fasi del loro sviluppo e sono rivolti sia agli sviluppatori di medicinali sia ai titolari di autorizzazioni all’immissione in commercio. Saranno la base da cui partire e il perimetro entro il quale elaborare future linee guida specifiche nelle diverse giurisdizioni.
L’Ema già nel 2024 aveva pubblicato un documento di riflessione su Ai e farmaci, aprendo così un percorso di sviluppo di indicazioni regolatorie specifiche che l’elaborazione di principi-guida condivisi da Ema e Fda porta ora avanti. Questa specifica collaborazione “rappresenta un primo passo in direzione di una rinnovata cooperazione Ue-USA nel campo delle tecnologie mediche innovative: i principi-guida condivisi aprono la strada a una buona pratica dell’intelligenza artificiale nello sviluppo dei farmaci” ha affermato Oliver Varhelyi, commissario europeo per la Salute e il benessere animale “e dimostrano come possiamo lavorare insieme per mantenere un ruolo di leadership globale nell’innovazione, garantendo al contempo il massimo livello di sicurezza per i pazienti“.
L’uso dell’intelligenza artificiale nel settore farmaceutico è cresciuto rapidamente negli ultimi anni. Come sottolineato anche nella proposta europea di Biotech Act, l’Ai ha il potenziale di accelerare il passaggio dall’innovazione a medicinali sicuri ed efficaci, scenario del quale la nuova legislazione farmaceutica europea tiene conto, consentendo un uso più ampio dell’intelligenza artificiale nei processi decisionali regolatori e creando spazi controllati per testare metodi innovativi basati sull’Ai.
Perché questi benefici si concretizzino, spiegano Ema e Fda, è però necessario gestire l’intelligenza artificiale in modo rigoroso, con un’attenzione particolare alla mitigazione dei rischi. Un approccio basato su principi comuni può aiutare regolatori, aziende farmaceutiche e sviluppatori a sfruttare il potenziale dell’Ai senza compromettere la sicurezza di pazienti e animali né la conformità alle norme.
L’iniziativa congiunta nasce dal lavoro avviato dopo l’incontro bilaterale Ue-Fda tenutosi nell’aprile 2024 e si inserisce nella strategia della rete europea delle agenzie dei medicinali fino al 2028, che punta su dati, digitalizzazione e intelligenza artificiale. Con l’etica al centro, l’Ema intende proseguire il dialogo internazionale per favorire una convergenza globale sull’uso responsabile dell’Ai in sanità.
I dieci principi-guida Ema-Fda su farmaci e Ai
- Lo sviluppo e l’uso delle tecnologie di Ai sono allineati ai valori etici e incentrati sull’essere umano.
- Lo sviluppo e l’uso delle tecnologie di IA seguono un approccio basato sul rischio, con validazione, mitigazione dei rischi e supervisione proporzionate al contesto d’uso e al rischio determinato del modello.
- Le tecnologie di Ai aderiscono ai rilevanti standard legali, etici, tecnici, scientifici, di cybersicurezza e normativi, comprese le Buone pratiche (GxP).
- Le tecnologie di Ai hanno un contesto d’uso ben definito (ruolo e ambito per cui vengono utilizzate).
- Competenze multidisciplinari che coprono sia la tecnologia di IA sia il suo contesto d’uso sono integrate lungo tutto il ciclo di vita della tecnologia.
- La provenienza delle fonti dei dati, le fasi di elaborazione e le decisioni analitiche sono documentate in modo dettagliato, tracciabile e verificabile, in linea con i requisiti GxP. È implementata un’adeguata governance, inclusa la privacy e la protezione dei dati sensibili.
- Lo sviluppo delle tecnologie di Ai segue le migliori pratiche nella progettazione di modelli e sistemi e nell’ingegneria del software; utilizza inoltre dati idonei all’uso, considerando interpretabilità, spiegabilità e prestazioni predittive. Un buon sviluppo di modelli e sistemi promuove trasparenza, affidabilità, generalizzabilità e robustezza delle tecnologie di IA, contribuendo alla sicurezza del paziente.
- Le valutazioni delle prestazioni basate sul rischio analizzano il sistema completo, incluse le interazioni uomo-Ai, utilizzando dati e metriche idonei al contesto d’uso previsto, supportati dalla validazione delle prestazioni predittive attraverso metodi di test e valutazione opportunamente progettati.
- Sistemi di gestione della qualità basati sul rischio sono implementati durante tutto il ciclo di vita delle tecnologie di Ai, anche per supportare l’individuazione, la valutazione e la risoluzione dei problemi. Le tecnologie di intelligenza artificiale sono sottoposte a monitoraggio programmato e ri-valutazione periodica per garantire prestazioni adeguate (ad esempio, per gestire il data drift).
- Viene utilizzato un linguaggio semplice per presentare informazioni chiare, accessibili e contestualmente rilevanti al pubblico di riferimento, inclusi utenti e pazienti, riguardo al contesto d’uso della tecnologia di Ai, alle prestazioni, alle limitazioni, ai dati sottostanti, agli aggiornamenti e all’interpretabilità o spiegabilità, mantenendole per tutto il ciclo di vita della tecnologia.


