M

Questo sito fa uso di cookie tecnici per migliorare l’esperienza di navigazione degli utenti e per raccogliere informazioni sull’utilizzo del sito stesso. Per maggiori informazioni si veda la Cookie Policy.

IA e dati sanitari: il futuro è già presente

Il 13 marzo scorso, il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’Intelligenza artificiale (AI Act), per la cui piena entrata in vigore si attende la pubblicazione in Gazzetta Ufficiale, da molti prevista nel prossimo autunno.

L’ AI Act, tra i diversi settori considerati, si preoccupa di regolamentare quello della sanità, ambito di per sé considerato degno di una specifica tutela, attesa la particolare sensibilità dei dati ad esso relativo e il grave rischio che un trattamento non adeguato di tali dati può comportare per le persone coinvolte.

Pertanto, entro due anni dalla pubblicazione dell’AI Act in Gazzetta Ufficiale, i Software as a Medical Device (SaMD) classificabili quale intelligenza artificiale dovranno conformarsi alle prescrizioni normative.

Ma perché? E quali sono gli adempimenti da porre in essere?

L’AI Act definisce all’art. 3 il concetto di sistema di intelligenza artificiale quale “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”  L’allegato I, individua quali tecniche e approcci di intelligenza artificiale:

a) Approcci di apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo, con utilizzo di un’ampia gamma di metodi, tra cui l’apprendimento profondo (deep learning);

b) approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;

c) approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.

L’ AI Act, dopo aver previsto un elenco di pratiche di intelligenza artificiale vietate, al Titolo III capo 1 regolamenta i sistemi di IA ad alto rischio, di per sé non vietati, ma sottoposti a specifici e puntuali restrizioni e adempimenti.

All’art. 6, L’AI Act individua tali sistemi ad alto rischio prevedendo che:

“A prescindere dal fatto che sia immesso sul mercato o messo in servizio in modo indipendente rispetto ai prodotti di cui alle lettere a) e b), un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:

a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell’Unione elencata nell’allegato II;

b) il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell’Unione elencata nell’allegato II. 2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all’allegato III”.

L’ Allegato II del Regolamento, al numero 11 rinvia al Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici.

Pertanto, qualora sussistano gli elementi di cui all’art. 6 dell’AI Act, gli SaMD che contengono un modulo di IA, poiché considerati sistemi ad alto rischio, potrebbero doversi adeguare alle norme dettate dall’AI Act.

Ma quali sono le regole applicabili?

L’AI Act alza l’asticella degli adempimenti da rispettare e di cui in questa sede si può procedere con una breve illustrazione.

Innanzitutto, l’art. 10, rubricato “Dati e governance dei dati” prevede dei limiti stringenti circa i set di dati di addestramento, convalida e prova.

L’art 11 prevede dei contenuti minimi relativi alla documentazione tecnica di un sistema di IA ad alto rischio da presentare alle autorità nazionali competenti e agli organismi notificati. Sul punto, si precisa che si attendono misure utili per bilanciare tale necessità di trasparenza con i diritti di proprietà industriale degli sviluppatori della tecnologia.

L’art. 13 dell’AI Act prevede specifici obblighi di trasparenza nei confronti degli utenti. In questo modo si pone altresì un obbligo in capo agli utenti, già previsto dal Regolamento sui dispositivi Medici (MDR) e qui rafforzato, di formazione adeguata in capo all’utente per gli strumenti che devono utilizzare.

Inoltre, l’art. 14 prevede un obbligo generico, per i sistemi di IA ad alto rischio, di progettazione e sviluppo tali da consentire sempre la supervisione da parte di persone fisiche durante il periodo in cui il sistema di IA è in uso.

In conclusione, le nuove frontiere dell’impiego di modelli di IA comporta delle sfide significative e l’utilizzo di questa nel sistema sanità comporta sicuramente notevoli benefit, di cui il legislatore europeo ha tenuto conto, bilanciandoli però con altri e fondamentali diritti della persona.

Data di pubblicazione
25.03.2024
Argomento trattato
Healthcare & Life Sciences

Iscrizione Newsletter

Share