Una videocamera ci giudicherà?
Ne ho già parlato segnalando un articolo sul tema ma vale la pena scrivere qualcosa in più: è chiaro che la videosorveglianza è destinata a cambiare nei prossimo futuro in modo siginficativo. Oggi rileva semplicemente violazioni e garantisce il controllo. Registra i comportamenti oggettivamente, lasciando poi all'uomo il compito di valutare e ricostruire fatti ed eventi. Il paradigma, lo scrivo per gli appassionati di calcio, è il cosiddetto V.A.R. il video assistant referee, l'arbitro aggiunto che avvalendosi delle riprese televisive aiuta l'arbitro in campo a ricostruire correttamente i fatti di gioco. La videocamera ripredende e aiuta l'uomo a decidere.
Ma la prossima generazione di sistemi di videoriprese grazie al riconoscimento facciale basato sull'intelligenza artificiale potrà essere usata per valutazioni proiettive sulle azioni umane future. Una vera e propria "prognosi sociale". Immaginatevi la scena: uno scanner analizza il vostro volto e con le tecnologie del riconoscimento facciale potenziato da algoritmi, big data, intelligenza artificiale e altri parametri più o meno trasparenti "prevede" la vostra propensione a commettere reati, il vostro orientamento sessuale, il vostro QI, quali sono le vostre convinzioni politiche, la vostra propensione all'acquisto di un prodotto o servizio. Lo rileva un articolo dei giorni scorsi dell'edizione australiana di The Guardian secondo il quale questo sta già accadendo in Cina.
Il paradigma qui non è più il V.A.R.: è la prognosi sociale di Minority Report , dove esisteva il sistema chiamato Precrimine: basandosi su sistemi sofisticati la polizia era in grado di impedire gli omicidi prima che essi avvengano e ad arrestare i potenziali "colpevoli". In questo modo non viene punito il fatto (che non avviene), bensì l'intenzione di compierlo e che porterebbe a concretizzarlo. Nel diritto penale vigente questa cosa è vietata da un principio generale secondo il quale nessuno può essere punito per la mera intenzione di commettere un reato. Come dicevano gli antichi romani: cogitazione pena nemo patitur. Nessuno può subire una pena per un semplice pensiero, fosse anche il più abominevole.
Minority Report è un romanzo ed un film di fantascienza. Ma il problema è che questa è destinata a diventare la realtà delle vostre vite future.
A me un sistema che delega alla Tecnologia le scelte e i giudizi, non piace.
Preferisco che ognuno sia responsabile di quello che fa (o non fa) e dei giudizi che formula (o non formula). Stiamo andando invece nella direzione opposta delegando le macchine a fare quello che è destino dell'uomo: scegliere.
Ancora una volta trovo che sia chiaro il fatto che questi temi non riguardano solo i dati personali ma vadano ben oltre, riguardando la definizione del rapporto che deve esistere tra l'individuo e la collettività. Sono temi delicati. Non dovrebbero essere appannaggio solo dei cosiddetti "tecnici", degli esperti del settore che spesso non sono in grado di valutare le implicazioni ultime delle loro valutazioni. Questo è un tema che ha sempre più bisogno di esperti interdiscipinari, in grado di fare collegamenti, di analizzare per capire e progettare il futuro. Potrà sembrare strano che lo dica io che sono un giurista e che per imprinting culturale (dal Latinorum di Azzeccagarbughi nei Promessi Sposi in poi) dovrei privilegiare i tecnicismi degli esperti di settore ma a me piacerebbe che i filosofi dessero il loro contributo a questo argomento, come avveniva nella Grecia antica, quando si discuteva della società ideale. Perchè di questo stiamo parlando, quando parliamo di privacy e di dati personali. Il punto è che non sembra che ce ne rendiamo conto. Il rischio, comunque, è che alla fine sia una videocamera a giudicarci.
Siamo ancora in tempo per cambiare direzione. Dipende da noi. Dipende dalle nostre scelte.