I 5 principi alla base dell'Intelligenza Artificiale "affidabile"​ made in EU  (Trustworthy AI)

I 5 principi alla base dell'Intelligenza Artificiale "affidabile" made in EU (Trustworthy AI)

Nella sfida in corso fra super-potenze (Stati Uniti - Cina) per l'acquisizione di un ruolo predominante nel campo dell'Intelligenza Artificiale, l'Europa sta cercando di trovare un suo spazio che parta anche da un approccio originale.

Per questa ragione il Parlamento Europeo ha lavorato per produrre una carta dei principi per il disegno di Intelligenze Artificiali "affidabili" o in inglese "Trustworthy AIs".

L'idea è quella di replicare in qualche modo il "successo" del GDPR che indubbiamente è diventato il "gold standard" in materia di riservatezza dei dati, all'Intelligenza Artificiale. Ovvero stabilire delle norme "etiche" che possano guidare "by design" la progettazione di Intelligenze Artificiali.


Vediamoli questi principi:

1.Beneficienza: i sistemi di AI devono essere progettati e sviluppati per migliorare il benessere individuale e collettivo.

Esempio: un algoritmo in grado di migliorare la gestione energetica di un edificio, di rallentare o fermare un veicolo di fronte ad un ostacolo


2.Non maleficenza: secondo cui i sistemi di AI non dovrebbero danneggiare esseri umani

Esempio: non dovrebbero essere impiegati come strumenti di offesa, in primis in ambito militare.


3.Autonomia: secondo cui la libertà e l'autodeterminazione degli esseri umani non potrà mai essere subordinata al controllo dei sistemi di intelligenza artificiale

Esempio: un umano dovrebbe essere sempre messo nelle condizioni di poter effettuare una scelta autonoma da quanto proposto dall'Intelligenza Artificiale.


4.Giustizia: soprattutto con riferimento alla tutela delle minoranze, dove un algoritmo potrebbe acquisire e quindi confermare dei pregiudizi.

Esempio: se una certa categoria oggi presenta un incidenza di criminalità più alta, tutti quegli individui rischiano di essere "etichettati" come criminali, rafforzando una pregiudiziale di tipo sociale o razziale


5.Trasparenza: secondo cui i processi decisionali degli algoritmi devono essere controllabili, intelligibili e comprensibili dagli esseri umani, e dall'altro ogni essere umano deve essere informato di trovarsi di fronte ad un'intelligenza artificiale.

Esempio: se un sistema di AI decide che non sono sufficientemente affidabile per la concessione di un finanziamento, devo poter conoscere le ragioni che hanno portato a tale decisione

 

Il punto 5 da tanti è stato considerato non realisticamente applicabile in situazioni dove viene impiegata la cosiddetta "AI forte", ovvero sistemi di Machine Learning che apprendono in modo autonomo e che sviluppano logiche non intelligibili. Personalmente credo che sia invece proprio questo forse uno dei contributi più interessanti, che pone anche una sfida: ovvero sviluppare AI che siano in grado non solo di prendere decisioni accurate, ma anche di spiegare il motivo per cui hanno preso o meno una certa decisione.


Il punto 2 invece escluderebbe l'applicazione in ambito militare. E tuttavia ad esempio le LAWS (Lethal Authonomous Weapon Systems) o "robot killers" sono ancora permesse dai trattati internazionali. Un tentativo di siglare una moratoria è stato ostacolato a settembre da un gruppo di potenze militari che comprendeva Stati Uniti, Russia, Corea del Sud, Isreaele e Australia.

 

Oltre ai 5 principi il regolatore europeo ha pensato di elencare anche 10 "requisiti", sono questi:

1.Responsabilità: occorre costruire un impianto di responsabilità in caso di abusi

2.Controllo dei dati: il sistema deve consentire sempre la possibilità di "ripulire" i dati in modo da evitare che gli algoritmi producano funzioni discriminatorie, nonché deve prevedere garanzie per prevenire la manipolazione degli stessi

 3.Design democratico: i sistemi devono essere potenzialmente accessibili a tutti i cittadini, senza distinzioni di età, stato di disabilità o stato sociale

4.Supervisione umana dell'autonomia dell'AI: dovrà essere sempre possibile deviare un sistema autonomo da una sua scelta da parte di un umano

5.Non discriminazione: è fondamentale evitare bias in fase di programmazione

6.Rispetto (e miglioramento) dell'autonomia umana: i sistemi devono essere progettati per proteggere i cittadini da possibili abusi sia di soggetti privati che di soggetti pubblici, resi possibili dalle tecnologie

7.Rispetto della privacy: il rispetto deve essere garantito in tutte le fasi del ciclo di vita del sistema

8.Rubustezza: i sistemi devono essere affidabili, poter gestire eventuali esiti errati ed essere progettati per resistere ad eventuali attacchi infomatici

9.Sicurezza: non devono danneggiare gli utenti, le risorse o l'ambiente.

10.Trasparenza: implica la capacità di descrivere e riprodurre i meccanismi con cui prendono decisioni. La trasparenza riguarda la riduzione dell'asimmetria informativa, in armonia con il GDPR.

  

Saranno questi principi in grado di dare l'avvio allo sviluppo di un'intelligenza artificiale europea competitiva, e allo stesso tempo "affidabile", in grado di gareggiare con quella degli Stati Uniti e della Cina? O ancora, saranno in grado di dare l'avvio ad un dibattito su scala internazionale per arrivare a definire delle regole comuni del gioco? Il dibattito è in corso. Vedremo gli sviluppi nei prossimi mesi (e anni).

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate