Nasce la Rete per i Diritti Umani Digitali, mentre in UE si discute Chat Control
In Parlamento procedono le trattazioni sul DDL 1146 per regolare l'IA in Italia; Hermes Center va in Senato; la mostra When They See Us a Bologna e il nostro workshop al DIG di Modena
Settembre è stato uno dei mesi più movimentati dell’anno per la nostra associazione, e i motivi sono molteplici. Ecco un’overview di quanto accaduto nelle scorse settimane, partendo dal quadro nazionale, nel quale si sta (finalmente!) aprendo una breccia per la salvaguardia dei diritti umani digitali.
<\MONITOR esce regolarmente alla fine di ogni mese, a ridosso del finesettimana. Puoi iscriverti (gratis) a questo link per ricevere la nostra newsletter direttamente nella tua casella mail, o continuare a seguirci su LinkedIn, dove <\MONITOR uscirà circa una settimana dopo l'uscita ufficiale.
Hermes Center va in Senato
Finita l’estate, in politica riprendono le trattazioni per regolare l’intelligenza artificiale a livello nazionale — ratificando pian piano le disposizioni contenute nel regolamento europeo entrato in vigore il 1° Agosto 2024. L’Artificial Intelligence Act (AI Act), ricordiamo, incorpora le linee guida a cui gli Stati Membri dell’Unione Europea saranno tenuti ad attenersi, entro e non oltre l’estate 2026 (termine per applicare la maggior parte delle disposizioni).
E in Italia? Il DDL 1146 sull'intelligenza artificiale proposto a maggio su iniziativa governativa (Meloni e Nordio) sta procedendo attraverso le fasi di esame parlamentare (Senato). Non è l’unico disegno di legge esistente in materia, dall’inizio dell’anno ne sono stati proposti almeno un paio al Senato (#1066 e #1116, a marzo e aprile) e uno alla Camera (#1084, ad aprile).
Questo DDL include normative per l'utilizzo sicuro dell'IA nel settore sanitario, nel lavoro e nella pubblica amministrazione, con un focus sulla non discriminazione e la protezione della privacy.
Mancano però riferimenti espliciti al riconoscimento facciale biometrico, tecnologia come sappiamo invasiva e potenzialmente pericolosa, specie se impiegata negli spazi pubblici. Inoltre, l’articolo 6 del DDL prevede l’esclusione dall’ambito applicativo della legge delle forze armate, dell’ACN (Agenzia per la Cybersicurezza Nazionale, tra l’altro uno dei due organi di governance dell’IA in Italia, insieme ad Agid) e di chiunque utilizzi i sistemi IA per scopi di sicurezza nazionale.
Insomma, un po’ troppe eccezioni e ancora poca chiarezza su come verranno utilizzate alcune delle tecnologie più dannose a livello di diritti umani digitali. Come risolvere, quindi?
Unendo le forze, naturalmente. Noi di Hermes Center, affiancati da The Good Lobby Italia, Privacy Network, Amnesty International Italia, StraLi-Strategic Litigation e Period Think Tank, abbiamo fondato la prima Rete italiana per i Diritti Umani e Digitali. E l’abbiamo presentata in Senato.
Durante una delle ultime audizioni per discutere il DDL 1146, l’11 settembre, la Rete per i Diritti Umani Digitali, rappresentata in aula a Palazzo Madama dalla dott.ssa Laura Ferrari (The Good Lobby Italia) e dall’avv. Sara Marcucci (Privacy Network), ha presentato le proprie proposte alle commissioni competenti, l’8a e la 10a.
Tra i punti chiave discussi, la Rete ha evidenziato la necessità di istituire un'autorità indipendente per la regolamentazione dell'IA e il divieto dell'uso del riconoscimento biometrico negli spazi pubblici, temi centrali per garantire una protezione effettiva dei diritti umani digitali.
Oltre alle organizzazioni per i diritti civili, sono stati coinvolti nel dibattito anche rappresentanti del settore sanitario e tecnologico, come SIAE (Società Italiana degli Autori ed Editori), Aisdet, l'Associazione italiana Sanità digitale e Telemedicina, e AssoSoftware. Per approfondire i dettagli dell’audizione e visionare il video completo, è possibile consultare il link ufficiale.
La questione “Chat Control”
Sul piano europeo, l’Italia, così come gli altri Paesi dell’Unione, negli scorsi giorni (aveva tempo fino al 23 settembre) è stata chiamata ad esprimersi sul controverso regolamento CSAR (Child Sexual Abuse Regulation), conosciuto informalmente come “Chat Control“.
La proposta dell'UE per il Chat Control, presentata nel 2022 dalla commissaria per gli Affari interni Ylvia Johansson, mirata a combattere la diffusione di materiale pedopornografico online (CSAM), continua ad essere al centro del dibattito politico.
Dopo essere stata divulgata da POLITICO, l'ultima versione di Chat Control ha suscitato non poche polemiche. Questa legge obbligherebbe i servizi di messaggistica a scansionare tutte le chat alla ricerca di contenuti illegali, anche se compromette la crittografia end-to-end (=messaggi visualizzabili solo da mittente e destinatario).
Sebbene l'uso dell'intelligenza artificiale per l'individuazione di contenuti sconosciuti rimanga facoltativo, i fornitori dovrebbero comunque segnalare qualsiasi materiale illegale rilevato. Piattaforme di messaggistica sicura come Signal e Threema hanno dichiarato che preferirebbero cessare le attività nell'UE piuttosto che attuare tali meccanismi di sorveglianza.
Critici come l'ex parlamentare del Partito Pirata Patrick Breyer sostengono che il disegno di legge mina la privacy e sopraffarebbe le forze dell'ordine con rapporti irrilevanti, riducendo la loro capacità di affrontare i casi di abuso in corso. Egli paragona la scansione di messaggi privati all'atto invasivo di aprire e controllare le lettere nel sistema postale.
Breyer avverte anche che, se applicata, questa legge potrebbe costringere milioni di europei a rinunciare alle piattaforme di messaggistica sicure, tagliandoli fuori dalla comunicazione globale essenziale. La prossima votazione è prevista per il 10 ottobre.
Consigliati da LinkedIn
Durov e Zuckerberg: ai poli opposti?
Questo mese ha visto anche l'arresto di Pavel Durov, CEO di Telegram, da parte delle autorità francesi (qui la dichiarazione del tribunale). Si tratta di un evento significativo, che sottolinea il delicato equilibrio tra i diritti digitali e l'autorità statale.
Il network europeo di cui facciamo parte, EDRi (European Digital Rights coalition) critica questa azione come parte di una tendenza più ampia in cui i governi cercano di esercitare un maggiore controllo sulle piattaforme digitali, spesso a scapito della privacy degli utenti.
EDRi sostiene l'importanza di rivedere le leggi esistenti, come quella sulla sicurezza interna della Francia e il Digital Services Act (DSA) dell'UE, per garantire che siano in linea con gli standard dei diritti umani.
Questo episodio si ricollega perfettamente al dibattito sulle responsabilità delle piattaforme tecnologiche, che dovrebbero riuscire a contrastare i contenuti illegali senza compromettere i diritti alla privacy degli utenti.
Ma parliamo di un altro CEO, Mark Zuckerberg. Meta, insieme a oltre 50 aziende, tra cui Ericsson e Spotify, ha recentemente pubblicato una lettera aperta indirizzata alle istituzioni dell'Unione Europea (UE), chiedendo un quadro normativo più coeso per l'intelligenza artificiale (IA). Pubblicata come annuncio sul Financial Times, la lettera esprime preoccupazione per la frammentazione delle normative europee, che potrebbe ostacolare l'innovazione e la competitività dell'Europa rispetto ad altre regioni, come gli Stati Uniti e la Cina.
Gli autori della lettera avvertono che l'Europa rischia di “rimanere indietro” nell'era dell'IA a causa di decisioni normative “inconsistenti” (eppure portate ad esempio dal resto del mondo, che non gode certo delle stesse protezioni in fatto di privacy e altri diritti).
Chiedono un approccio "armonizzato, coerente, rapido e chiaro", sottolineando l'importanza di un'interpretazione moderna del GDPR che favorisca lo sviluppo di tecnologie IA. Viene anche evidenziata l'importanza dei modelli IA "multimodali", capaci di elaborare diversi tipi di dati, come testo, immagini e suoni.
In sintesi, Meta e le aziende firmatarie richiedono riforme normative tempestive per garantire che l'Europa “possa cogliere i benefici economici e sociali derivanti dallo sviluppo responsabile delle tecnologie IA”. Rimangono forti dubbi sulle reali intenzioni di Meta & Co., che devono la propria fortuna alla vendita a terzi di dati personali degli utenti.
Cosa abbiamo fatto a settembre
A settembre, Hermes Center, The Good Lobby Italia e Sineglossa, hanno inaugurato la mostra “When They See Us - Quando le macchine ci guardano“, di cui abbiamo parlato a più riprese sui nostri canali social, compreso Substack.
All’apertura, il 17 settembre alle 18 in Sala Borsa (Piazza del Nettuno, Bologna) si sono presentati grandi e piccini, per ascoltare gli interventi di Martina Turola (TGL), Federico Bomba (Sineglossa), Antonella Napolitano (Hermes Center) e Dries Depoorter (artista belga), che ha spiegato la genesi di ogni sua opera (traduzione: Alessandra Bormioli, Hermes Center).
La mostra, che punta a sensibilizzare sui rischi legati alle tecnologie di sorveglianza, è stata ripresa dalle seguenti testate, tra le altre: Art Tribune, Exibart, Il Fatto Quotidiano, Bologna Today, Wired Italia, Radio Onda d’Urto, European AI & Society Fund.
Qualche giorno più tardi, Laura Carrer di Hermes Center ha condotto un workshop al fianco di Martina Turola al DIG, il Festival Internazionale del Giornalismo Investigativo che si tiene ogni anno a Modena. Il worshop s’intitolava “Il giornalismo d’inchiesta nell’epoca dell’intelligenza artificiale“ e trattava di metodi e strumenti di inchiesta delle AI e dei sistemi algoritmici, portando alcuni esempi internazionali.
Sempre a DIG, Laura Carrer, a titolo personale, ha anche tenuto un intervento sulle armi autonome, all’interno di un panel dedicato all’utilizzo di tencologie letali nell’occupazione israeliana della Palestina. L’AI impiegata nei contesti di guerra è un argomento che Hermes Center segue da vicino da molti anni, ormai.
Eventi futuri
I prossimi appuntamenti comprendono il Tech and Society Summit a Bruxelles, indetto dai nostri colleghi di EDRi e il Festival Sabir qui in Italia, che si terrà dal 10 al 13 ottobre 2024 a Roma, a cui parteciperà anche Hermes Center.
Stay tuned!