L’Applicazione del Considerato n. 53 del Regolamento UE 2024/1689 nell’IA: Valutazione dei Sistemi di IA a Basso Rischio

L’Applicazione del Considerato n. 53 del Regolamento UE 2024/1689 nell’IA: Valutazione dei Sistemi di IA a Basso Rischio

Diritto delle Imprese e Intelligenza Artificiale - Avv. Emiliano Cerro

Il Regolamento UE n. 2024/1689, comunemente noto come IA Act, rappresenta un quadro giuridico fondamentale per la regolamentazione dell'intelligenza artificiale (IA) in Europa. Tra gli obiettivi principali vi è quello di classificare i sistemi di IA in base ai rischi che possono comportare per la sicurezza, i diritti fondamentali e l'ordine pubblico. Un aspetto chiave di questa normativa è la differenziazione tra sistemi di IA ad alto rischio e sistemi che, pur operando in settori regolamentati, non comportano un impatto materiale significativo.

Il Considerato n. 53 offre una guida specifica su come valutare quei sistemi che, pur ricadendo in settori predefiniti, non influenzano sostanzialmente i processi decisionali e, quindi, non sono considerati ad alto rischio.

1. Definizione di Sistemi di IA a Basso Rischio

Il Considerato n. 53 chiarisce che vi sono situazioni in cui i sistemi di IA operanti in settori regolamentati non comportano un rischio significativo perché non influenzano materialmente il processo decisionale. Tali sistemi, sebbene impiegati in ambiti sensibili, hanno un ruolo limitato o accessorio che non incide sulla sostanza della decisione finale. Questi sistemi possono soddisfare una delle quattro condizioni elencate nel Considerato, che ne riducono il livello di rischio rispetto ai requisiti più stringenti previsti per i sistemi ad alto rischio.

Esempio 1: Sistemi di IA per la Trasformazione dei Dati

Una delle condizioni menzionate è che il sistema di IA svolga un compito procedurale ristretto, come la trasformazione di dati non strutturati in dati strutturati. Un esempio pratico è un sistema utilizzato nel settore sanitario per trasformare le note testuali dei medici in dati strutturati all'interno di un database clinico. Questo sistema, pur operando in un settore ad alto rischio come quello sanitario, non influisce direttamente sulla diagnosi o sul trattamento del paziente, limitandosi a migliorare la qualità dei dati. Pertanto, il suo impatto sul processo decisionale è limitato e non comporta rischi sostanziali per la salute o la sicurezza dei pazienti.

Esempio 2: IA per la Classificazione di Documenti Legali

Un altro esempio tipico riguarda i sistemi di IA impiegati negli studi legali per classificare i documenti in entrata in base alla loro categoria. Questo tipo di IA si limita a organizzare la documentazione, senza influenzare il contenuto o l'interpretazione delle informazioni legali. Pur operando nel settore legale, dove una decisione errata potrebbe avere gravi conseguenze, il sistema di IA non modifica in alcun modo la sostanza delle decisioni prese dagli avvocati o dai giudici, risultando quindi un sistema a basso rischio.

2. IA Come Strumento di Supporto: Riduzione del Rischio

Il Considerato n. 53 introduce una seconda condizione in cui un sistema di IA è utilizzato per migliorare il risultato di un'attività umana già completata. Questo tipo di IA aggiunge valore senza aumentare i rischi associati all’uso di sistemi ad alto rischio.

Esempio 3: Miglioramento del Linguaggio in Documenti

Nel contesto della redazione di documenti, ad esempio, un sistema di IA che aiuta a perfezionare il linguaggio di un testo legale o di un contratto, adeguando lo stile o il tono al contesto professionale o alle richieste del cliente, rientra in questa categoria. In questo caso, il compito svolto dall'IA è limitato alla forma e non influisce sulla sostanza del contratto. Pertanto, non c'è un impatto materiale sulle decisioni che verranno prese basandosi su quel documento, riducendo ulteriormente il rischio.

3. Sistemi di IA per il Monitoraggio di Modelli Decisionali

La terza condizione prevista dal Considerato n. 53 si riferisce ai sistemi di IA utilizzati per individuare modelli decisionali o eventuali deviazioni. Questi sistemi operano in modo ausiliario, fornendo un supporto alla revisione umana.

Esempio 4: Valutazione di Insegnanti

Un sistema di IA utilizzato nel campo dell’istruzione per analizzare le valutazioni assegnate da un insegnante può segnalare eventuali incongruenze o deviazioni dal modello predefinito di valutazione. Tuttavia, questo sistema non influisce sulle valutazioni originali o sul processo di valutazione degli studenti, ma agisce solo come strumento di verifica postuma. Il controllo finale rimane in mano all’essere umano, riducendo così il rischio di danni diretti.

4. Sistemi IA per Attività Preparatorie

Infine, la quarta condizione riguarda i sistemi di IA utilizzati in modo preparatorio rispetto a una decisione finale, come quelli impiegati nella gestione di fascicoli o nella traduzione di documenti. Questi sistemi forniscono un supporto operativo o logistico, ma non influenzano la decisione sostanziale.

Esempio 5: IA per la Gestione di Fascicoli Giudiziari

Un sistema di IA che organizza fascicoli giudiziari, ad esempio, potrebbe indicizzare i documenti o collegarli ad altre fonti di dati rilevanti. Pur operando nel settore della giustizia, un tale sistema non prende decisioni sostanziali né influenza il risultato di un processo. L’IA svolge un ruolo puramente preparatorio, lasciando l’intera responsabilità della decisione agli operatori umani, minimizzando quindi i rischi associati.

5. Implicazioni Giuridiche e la Necessità di Documentazione

Sebbene questi sistemi di IA non siano considerati ad alto rischio, il fornitore ha comunque l’obbligo di documentare le motivazioni che lo hanno portato a tale classificazione. Questa documentazione deve essere conservata e messa a disposizione delle autorità competenti in caso di richiesta. Ciò garantisce trasparenza e tracciabilità, elementi fondamentali per la fiducia nei sistemi di IA.

Conclusioni

Il Considerato n. 53 del Regolamento UE n. 2024/1689 offre un'importante guida per identificare quei sistemi di IA che, pur operando in contesti potenzialmente rischiosi, non comportano un rischio materiale significativo. La chiara definizione di condizioni specifiche, come l’uso di IA per compiti procedurali ristretti o per il miglioramento di attività umane già completate, permette di distinguere tra sistemi di IA a basso rischio e quelli ad alto rischio. Tuttavia, rimane cruciale che i fornitori assicurino una documentazione adeguata e trasparente per ogni sistema messo sul mercato, in modo da garantire conformità e sicurezza per tutti gli utenti.

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate