Proposta regolamento UE sulla Intelligenza Artificiale - qualche riflessione
Il 21 aprile 2021 la Commissione Europea ha pubblicato una proposta di Regolamento UE sull’intelligenza artificiale.
Si tratta di un’iniziativa pionieristica, il primo tentativo di normare l’utilizzo di questa tecnologia andando a toccare tutti i soggetti coinvolti - fornitori, distributori, importatori o rivenditori - e richiedendo a ciascuno precisi standard di conformità normativa.
Ad oggi, solo l’Europa ha deciso di affrontare in maniera decisa il problema dell’impatto dell’AI sui diritti delle persone nel lavoro, nella società, nelle istituzioni e nella vita privata, a riprova dell’importante lavoro che UE sta svolgendo, a volte in maniera un po’ bistrattata, per la vita futura dei suoi cittadini.
Alla base della riflessione della Commissione Europea c’è il tema della “equità degli algoritmi”.
Da un lato l’intelligenza artificiale consente di fare cose mirabolanti; Per fare qualche esempio, l’automazione di processi produttivi complessi, la guida autonoma dei veicoli, le analisi predittive in campo medico.
Dall’altro, però, è alla base anche di fenomeni come la “deep fake” tech, filmati e audio in cui il volto e la voce di un personaggio vengono manipolati. Ricordo, fra gli altri, il video fake in cui Nancy Pelosi, il presidente della Camera Usa, parla con la voce da ubriaca. Oppure, in ambito militare, dove sono iniziate a circolare notizie di "missioni" svolte da droni in maniera completamente autonoma.
Sono gli esseri umani a fornire i dati agli algoritmi dell’AI, dati con cui possono, più o meno consciamente, trasmettere i propri bias, pregiudizi e valori.
Da qui la necessità di una “tutela” davanti a uno strumento così potente.
La proposta di Regolamento prevede diversi livelli di requisiti normativi a seconda del rischio associato alle varie pratiche di Intelligenza Artificiale.
Innanzi tutto, alcune di queste pratiche sono vietate.
L’AI non potrà essere utilizzata per il “social scoring”, il “punteggio sociale” applicato in Cina e assegnato agli individui in base al comportamento, punteggio che consente di accedere o meno ai servizi.
Sarà vietata qualsiasi tecnica subliminale volta a condizionare l’azione delle persone.
Non si potranno nemmeno adottare sistemi di identificazione facciale in luoghi pubblici in tempo reale e questo è un punto molto interessante, anche perché in realtà alcune volte questa tecnologia è stata usata per motivi apparentemente positivi (tenere ad esempio uno specifico individuo condannato per adescamento lontano da un posto pieno di giovani). Bisognerà capire come questo tema sarà affrontato in futuro se questa proposta di regolamento entrerà in vigore.
Sarei anche curioso di capire che tipo di limitazioni saranno messe all’utilizzo dell’Intelligenza artificiale di cui parlavo poco sopra, in ambito militare . Ecco, questo mi piacerebbe venisse dichiarato in maniera esplicita come vietato.
Consentiti dal Regolamento, ma rigidamente regolamentati, sono invece i sistemi di AI considerati “ad alto rischio”, cioè che possono avere un impatto sui diritti fondamentali delle persone.
Consigliati da LinkedIn
Per tali sistemi ad alto rischio sono richieste trasparenza, sicurezza, responsabilizzazione e supervisione umana.
Trasparenza
Gli esperti parlano di XAI (eXplanaibleAI), cioè spiegabilità degli algoritmi. Per il Regolamento i sistemi di AI devono essere progettati e sviluppati in modo che il loro funzionamento sia sufficientemente trasparente e gli utenti possano capirne lo scopo. L’AI deve sempre dichiararsi (l’utente ha il diritto di sapere se si sta rapportando con un sistema o con una persona).
Sicurezza
Viene introdotto l’obbligo di segnalare immediatamente eventuali incidenti e malfunzionamenti di un sistema ad alto rischio alle autorità di controllo.
Responsabilizzazione
Ai diversi livelli di rischio sono associati diversi livelli di responsabilità, così come è stato richiesto dal Parlamento Europeo alla Commissione nella sua Risoluzione del 20 ottobre 2020 “recante raccomandazioni su un regime di responsabilità civile per l’intelligenza artificiale”.
Nella Risoluzione il Parlamento ha sottolineato l’importanza di “trovare un equilibrio tra l’efficace ed equa tutela delle potenziali vittime di danni o pregiudizi e, allo stesso tempo, la disponibilità di una sufficiente libertà d’azione per consentire alle imprese, in particolare alle piccole e medie imprese, di sviluppare nuove tecnologie e nuovi prodotti o servizi”.
L’individuazione delle responsabilità sarà favorita dall’obbligo di registrare ogni sistema di AI ad alto rischio in una banca dati europea dedicata, prima dell’immissione sul mercato.
Supervisione umana
I sistemi di AI dovranno consentire sempre una supervisione umana. Anche qui, come in altri punti della proposta, il richiamo è all’art 22 del GDPR: in caso di processo automatizzato, deve essere previsto il diritto di ottenere l’intervento umano.
Anche per i sistemi di AI considerati a basso rischio (ad esempio, quelli applicati ai videogiochi) saranno richiesti trasparenza e controllo.
In generale, credo si tratti di un grande lavoro svolto dalla Unione Europea su un tema così rilevante ed anche le sanzioni previste sono tanto rilevanti da richiedere una necessaria attenzione da parte di tutti gli attori che si cimenteranno con sistemi di Intelligenza Artificiale in Europa (sia produttori europei che non). Le inadempienze al Regolamento comporteranno sanzioni pecuniarie dal 2% al 6% del fatturato annuo dell’azienda che ha commesso l’infrazione.
La tecnologia è meravigliosa ed è necessaria per l'evoluzione dell'essere umano. La storia ci ha però insegnato, a partire dall'invenzione del fuoco e del ferro, come le stesse cose che possono essere usate per scopi positivi, possano essere usate anche in maniera negativa e malvagia; e più la tecnologia diventa pervasiva, più importanti ed ampi possono essere i suoi effetti, nel bene e nel male. Per questo motivo questo lavoro normativo che l'UE sta svolgendo è estremamente importante.
Come già avvenuto per il GDPR l’Europa si prepara ad affrontare un tema importante in maniera strutturata ed all’avanguardia nel mondo, per prevenirne possibili abusi ed usi impropri.
Cloud Solution Architect Copilot
3 anniArgomento complesso, non c'è dubbio. Il vero problema è la natura dell'essere umano, perché dovremmo mettere dei paletti sull'uso di queste grandi innovazioni se l'essere umano le utilizzasse sempre a fin di bene? L'eterno problema è che alla fine dobbiamo investire più energie per governare le innovazioni più che per cercare di migliorare la nostra vita, perché è questo che dovrebbero fare, no? E come sempre accade ci sarà una parte di esseri umani che ne faranno un uso sbagliato, e chi sarà in grado di controllare? Io credo che ci troviamo davanti ad una svolta epocale e come tale si svilupperà ed entrerà nelle nostre vite in modo prepotente, nel bene e nel male...