Oggetto dello studio è quel particolare tipo di trattamento di dati personali automatizzato che consiste nella «profilazione algoritmica» che si svolge nel piú ampio contesto della c.d. «big data revolution». Indagato il fenomeno assumendo come lente giuridica di analisi il principio di autonomia privata, tre sono precisamente le «interferenze» che vengono con quest’ultimo individuate e criticamente esaminate: pratica di per sé senz’altro lecita, funzionale al piú efficiente esercizio dell’autonomia negoziale dell’impresa che ad essa fa ricorso – questa la prima «interferenza» –, il trattamento di profilazione rischia, per converso, in talune ipotesi, di risultare in una lesione – qui la seconda «interferenza» – dell’autonomia privata dell’interessato «oggetto» di profilazione, il quale, dopo avervi prestato (un troppo spesso inconsapevole) consenso – ecco la terza «interferenza» –, si ritrova incanalato all’interno di un mercato tutto costruito «a misura» di un profilo non compiutamente conoscibile nei suoi elementi costitutivi e nelle sue ragioni giustificative in quanto esito di inspiegabili inferenze algoritmiche.
Post di EDIZIONI SCIENTIFICHE ITALIANE
Altri post rilevanti
-
Baseresti le tue decisioni sul parere di un singolo ricercatore, senza prove autorevoli? Molti direbbero di no, ed è questo ad oggi un grande limite nell'adozione dell'#AI in azienda. Quando si tratta di dimostrare, con supporto dei dati, le risposte fornite dalla #IA ad oggi non si ottengono fatti concreti. Deve questo essere un motivo di mancata adozione? Secondo me no, tuttavia è necessario lavorare con accuratezza sulle sorgenti dati utilizzate nella fase di #training e optare per una politica di trasparenza sulle fonti di informazione utilizzate dal motore di #IntelligenzaArtificiale scelto.
Per visualizzare o aggiungere un commento, accedi
-
E' on line il "Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale – settembre 2023", che all'articolo 4 elenca "I principi di conoscibilità, non esclusività e non discriminazione algoritmica: 3. il principio di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano le opacità, gli errori dovuti a cause tecnologiche e/o umane, verificandone periodicamente l’efficacia anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate. Ciò, anche al fine di garantire,che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, visti i potenziali effetti discriminatori che un trattamento inesatto di dati sullo stato di salute può determinare nei confronti di persone fisiche (cfr. considerando n. 71 del Regolamento)". Credo che, senza dubbio, si applichi anche in ambito tributario e sicuramente l'Agenzia delle Entrate ne terrà conto.
Per visualizzare o aggiungere un commento, accedi
-
📣 L'EDPS batte la "concorrenza" e pubblica i primi orientamenti su come garantire la compliance #dataprotection in caso di ricorso a sistemi di #AIGenerativa. Alcune pillole 💊 dal testo: ✅ In via generale, non vi sono ostacoli a che le istituzioni europee ricorrano a strumenti di GenAI. 👩✈️ Se uno sviluppatore o fornitore dichiara che, nell'ambito della soluzione di GenAI messa a disposizione, non sono trattati dati personali, è necessario richiedere i controlli specifici che sono stati implementati a garanzia di tale affermazione. 🔎 Il #DPO si conferma la figura chiave per orientare il titolare/responsabile verso l'uso conforme della tecnologia. 📝 Una #DPIA deve di norma essere redatta in caso di utilizzo di nuove tecnologie. L'AI generativa, per sua natura, non è certamente da meno. 🚦 L'individuazione della corretta base giuridica da parte dei fornitori di sistemi di GenAI è un tema cruciale anche per gli enti che beneficiano della tecnologia (se si tratta del consenso, occorre verificarne la validità; se si ricorre al legittimo interesse, l'utilizzo deve essere allineato a quanto indicato dalla #CGUE – cfr. C-252/21). 🤖 Il principio di #mininimizzazione deve essere rispettato anche nel contesto dell'intelligenza artificiale, così come quello di #accuratezza. L'Autorità dice chiaramente: occorre trattare meno dati e più precisi possibile. 😈 Seppur i provider di sistemi di AI provino ad identificare e mitigare i #bias, è il soggetto che sfrutta la tecnologia a conoscere più nel dettaglio i pregiudizi tipici del business case. Nota conclusiva: la sezione su come garantire l'esercizio dei diritti è forse quella più debolmente argomentata dall'Autorità. Ad ogni modo, la sfida è ardua e l'EDPS dichiara fin dalle premesse che tali orientamenti saranno presto "aggiornati, raffinati e ampliati". Siamo solo all'inizio! PANETTA
Per visualizzare o aggiungere un commento, accedi
-
Scopri il Punto Privacy della settimana con la nostra partner Lia Ruozi Berretta. Tema di oggi: Intelligenza Artificiale generativa (IAG) e Web Scraping. #Privacy #GDPR #DatiPersonali
Il Garante per la Protezione dei Dati Personali ha recentemente adottato una Nota Informativa sulla raccolta massiva di dati personali dal web per l'addestramento degli algoritmi di Intelligenza Artificiale generativa (IAG). ll documento si concentra sui dati personali pubblicati online e tiene conto dei contributi ricevuti nell'indagine conoscitiva sul #WebScraping, deliberata il 21 dicembre 2023. #PuntoPrivacy | AVVOCATI.NET
Per visualizzare o aggiungere un commento, accedi
-
Può l'A.I. generativa commettere reati? Nel DDL sull'intelligenza artificiale la prima fattispecie di reato che punisce penalmente il deep fake. L'invio o la diffusione di immagini, video o voce di una persona modificati con l’AI senza il suo consenso e con il fine di arrecare nocumento sarà punito penalmente. In questo caso l'autore del reato è l'umano che si avvale della macchina. E se fosse la macchina a realizzare autonomamente la fattispecie di reato? Potrebbe la macchina essere punita? E se sì, potrebbero essere applicate sanzioni? Nel silenzio del legislatore europeo e di quello italiano, forse un orientamento potrà offrirlo il prossimo congresso parigino di AIDP-International Association of Penal Law, in cui si cercherà di offrire una risposta alla domanda chiave, se l'A.I. possa rientrare in una delle categorie giuridiche esistenti o se richieda nuovi principi e categorie.
Per visualizzare o aggiungere un commento, accedi
-
Tra le piattaforme che cambiano le procedure per accesso ai dati per via del Digital Service Act e vuoti normativi. Tra comitati etici che non necessariamente sono proprio addentro alla materia e materie che non necessariamente sono dentro i comitati etici. (A volte capitano pure esperti di fisioterapia assistita dai robot che fanno gli esperti di etica degli algoritmi. (True Story).) Il mio lavoro si sta trasformando. Levata la didattica, un po' di ricerca, e il carico burocratico passo il tempo cercando di far funzionare giri e risolvere paradossi tentando di far capire quello che non funziona (spesso parliamo proprio di cose di base). Però i risultati cominciano a vedersi. E' cominciata una fase interlocutoria con la commissione europea, che recepisce il bisogno di un certo tipo di competenze sulla questione dati. La famosa tavola rotonda (di cui mi sono fatto portavoce) chiesta a gran voce da 40 scienziati europei si farà, non si sa ancora quando, ma a stretto giro. Voi non immaginate che paradossi si possono generare facendo ipotesi normative su cose che si conoscono poco. Perché siamo qui lo sappiamo bene, sarebbe bene farne tesoro per evitarlo in futuro, ma come dice un saggio genzanese "lo so, magno tranquillo". Però, nel mentre, il prossimo che risento parlare a vanvera di cose che non sa me lo magno. Promesso. Magari fatelo anche voi. Basta chiedere "cosa significa quello che hai detto?" e attendere la risposta.
Per visualizzare o aggiungere un commento, accedi
-
In tanti usano i dati degli utenti per vari fini: analisi di utilizzo, addestrare i sistemi di intelligenza artificiale e, spesso fanno di tutto per impedire di opporsi? Qui analizzo la questione e spiego perché i Garanti dovrebbero intervenire subito.
Anche Microsoft ci è cascata: addestra i sistemi di AI con i dati degli utenti e fa di tutto per impedire una libera scelta. - GarantePiracy - Christian Bernieri (fucking good) DPO.
garantepiracy.it
Per visualizzare o aggiungere un commento, accedi
-
📣 Approvato il DDL "Disposizioni e delega al Governo in materia di intelligenza artificiale (disegno di legge)".🗞 Secondo le prime indiscrezioni di stampa sarà aggiunto un nuovo reato al Codice Penale "Illecita diffusione di contenuti generati o manipolati con sistemi di Ia" punibile fino a 5 anni "se dal fatto deriva un danno ingiusto". 🤔 da capire come funziona l'illecito... ChatGpt non è coperto da copyright.... se copio e pubblico una cosa generata da ChatGpt che era coperta da copyright è illecito nuovo o bastava il già presente reato di "ricettazione"? 😜 Potrebbe essere illecito fare pubblicazioni interamente scritte da IA, invece farsi scrivere le pubblicazioni da Intelligenza Umana (stagista, collaboratore, ricercatore, apprendista) è poi metterci il proprio nome sopra cosa sarebbe? 🙄 Onere della prova: curioso di sapere come il perito di turno dimostrerà che la diffusione illecita deriva da un "copia e incolla" di testo dal ChatGPT di turno...
Comunicato stampa del Consiglio dei Ministri n. 78
governo.it
Per visualizzare o aggiungere un commento, accedi
-
In un mondo sempre più governato da codici e dati, è imperativo che i professionisti del diritto comprendano le implicazioni legali degli algoritmi e collaborino con gli esperti di informatica per sviluppare un quadro normativo che promuova l'innovazione tecnologica nel rispetto dei principi di giustizia e uguaglianza. 🤝✨📚 Con questo articolo Nicola Nappi intende contribuire a questo dialogo interdisciplinare, offrendo una panoramica delle questioni giuridiche sollevate dalla correttezza e dalla complessità computazionale degli algoritmi e suggerendo vie percorribili per un loro utilizzo etico e legale. 🔍📊 #studiolegalenappi #itlaw #DirittoDigitale #Algoritmi #AlgoritmiLegali #InnovazioneGiuridica #EticaTecnologica
Sulla correttezza e complessità computazionale degli algoritmi - Studio Legale Nappi
https://www.studiolegalenappi.it
Per visualizzare o aggiungere un commento, accedi
1.679 follower