Il futuro dell'identità sociale nell'IA e l'apprendimento automatico

Il futuro dell'identità sociale nell'IA e l'apprendimento automatico

Il machine learning è uno strumento potente che può essere usato per il bene o per il male. Quando viene utilizzato, ci sono rischi di discriminazione e pregiudizi negli algoritmi di apprendimento automatico che potrebbero minacciare la giustizia sociale se non adeguatamente standardizzati. In questo articolo copro sei modi in cui l'apprendimento automatico perpetua la disuguaglianza sociale? La conclusione? Sta a noi, come esseri umani, agire contro queste disuguaglianza impegnandoci su due fronti: fare pressione sugli enti governativi responsabili della regolamentazione della tecnologia per standardizzare i loro processi; assicurarsi che tutti abbiano accesso allo stesso modo utilizzando software open source.

Puoi utilizzare il machine learning per prendere decisioni più intelligenti che hanno un impatto duraturo sul tuo business. I modelli incarnano le politiche, come ad esempio chi ottiene l'accesso alle opportunità e alle risorse per molte persone? Guidano decisioni consequenziali come il fatto che qualcuno venga incarcerato o che gli venga data una polizza assicurativa, per citare solo alcuni esempi!

Poiché il machine learning guida le decisioni operative, esercita un potere nell'impatto che ha su milioni di vite individuali. Questo potere può essere dannoso se i modelli sono costruiti senza considerare i gruppi svantaggiati o protetti; questo rischio di disuguaglianza sociale nasce da un'eccessiva automazione che limita le opportunità; anche quelle considerate minori come ottenere una migliore offerta di lavoro nell'azienda dei tuoi sogni rispetto ad una più vicina perché hanno usato i dati su dove vivi piuttosto che altri fattori come il tipo di personalità.

Ecco sei modi in cui l'apprendimento automatico modellerà il futuro dell'identità sociale:

1-Modelli discriminatori. In futuro, i modelli predittivi saranno in grado di basare le decisioni parzialmente o interamente su una classe protetta. Questo permette una maggiore inclusione ed equità nel prendere certi punti di vista che cambiano la vita e che le persone hanno su se stesse - basati esclusivamente sulla loro razza/religione/ecc. e sul luogo di provenienza (ad esempio, quale paese).

Questo sembra scioccante e sensazionalistico, ma sto solo descrivendo letteralmente ciò che il modello farebbe se la razza fosse permessa come input del modello. La prima cosa che considera è il tuo aspetto; che potrebbe essere un fattore importante per alcuni lavori o prestiti (ma non per la libertà vigilata). Dopo che questo è stato eliminato, il tuo punteggio viene penalizzato a causa di chi sei: I neri vengono penalizzati di sette punti in media solo per il fatto di essere neri in questo caso!

2-Pregiudizi macchina. Si scopre che i modelli che sono equi in un senso possono essere ingiusti. Molte volte, troviamo le classi protette come input per il nostro modello ma in realtà non è presente perché altre variabili finiscono per servire come proxy per questi elementi o gruppi "protetti", anche se potresti volerli entrambi lì! Questo è difficile e complicato poiché ciò che era previsto non sempre funziona esattamente bene; questo rende la modellazione un compito difficile nel migliore dei casi...

Non è stato fornito nessun testo alternativo per questa immagine

Il futuro dell'identità sociale. Uno studio recente ha scoperto che i modelli di rischio criminale, come COMPAS (che è venduto alle forze dell'ordine in tutti gli Stati Uniti) sono abbastanza sensibili da segnalare gli imputati bianchi e neri con la stessa frequenza, ma sospettano falsamente i neri più di quanto la loro innocenza giustifichi. Per esempio: In Florida tra il 2011 e il 2015 SOLO il 12% di tutte le persone identificate da questo software erano effettivamente colpevoli; tuttavia il 31% di tutte le condanne DE FACTO erano nere!!!!!! Proprio così, 3 persone su 10 che non erano coinvolte in crimini sono state mandate al fresco perché qualche casella ha spuntato 'sì'.

3-Inferire attributi sensibili - prevedere la gravidanza e oltre. Il potenziale del machine learning di prevedere informazioni sensibili sugli individui è spaventoso. Per esempio, potrebbe essere possibile in futuro che gli algoritmi sui like di Facebook determinino da soli la tua razza e se ti licenzierai o morirai entro cinque anni!

Lo sviluppo ha preoccupato i ricercatori che hanno scoperto che questo tipo di modello predittivo fornisce dinamite, il che significa che la sua accuratezza dipende interamente dalla dimensione del campione piuttosto che da altri fattori come il bias verso certi tipi di persone (ad esempio, gli afroamericani).

La Cina non è l'unico paese che utilizza il riconoscimento facciale. Il governo cinese, in particolare, è stato identificato mentre utilizzava questa tecnologia per rintracciare gli Uiguri, una minoranza etnica sistematicamente oppressa dal proprio governo per anni; uno dei primi casi conosciuti al mondo in cui il software di apprendimento automatico può dire da dove vieni basandosi sulla tua etnia! Una start up valutata più di 1 miliardo di dollari ha detto che il suo prodotto potrebbe identificare "gruppi sensibili" come questi, inviando allarmi se sei persone con sembianze simili appaiono entro 20 giorni circa.

4-Mancanza di trasparenza. Usando l'IA, le macchine sono in grado di prendere decisioni che cambiano la vita e che hanno un impatto sul tuo sostentamento. Questi modelli devono essere controllati e ispezionati a scopo di responsabilità ma spesso rimangono nascosti dai loro creatori in segretezza inaccessibile all'occhio pubblico, perpetuando una mancanza di processo giusto così come di trasparenza nelle istituzioni su larga scala dove queste decisioni pesanti sono state prese senza alcun input da parte di chiunque non sia direttamente coinvolto.

  • Il primo standard etico, quello della trasparenza del modello, sostiene che i modelli predittivi devono essere resi accessibili e ispezionabili in modo che le persone possano capirli.
  • Il secondo standard etico è il diritto alla spiegazione, il che significa che tutte le decisioni guidate o informate da un modello predittivo dovrebbero sempre avere anche una spiegazione. Soddisfare questi standard significherebbe che c'è una ragione dietro a come qualcuno è stato penalizzato nel suo punteggio di rischio di crimine, sia che si tratti di aspetti legati a circostanze di background, comportamenti passati ecc.

5-Micro-targeting predatorio. Il ciclo dell'impotenza può essere amplificato quando il machine learning viene utilizzato per migliorare l'efficienza in attività progettate per la massimizzazione del profitto.

Per esempio, le pubblicità ad alto target sono abili a sfruttare i consumatori vulnerabili e a separarli dai loro soldi, mentre il micro-marketing rende più facile che mai con prezzi predittivi su assicurazioni o prestiti auto che lasciano molte persone finanziariamente fragili ancora più suscettibili, portandole in una spirale di povertà dove possono diventare dipendenti da questi servizi, proprio come accadrebbe con qualsiasi altra dipendenza se non controllata!

Dato che il costo dell'assicurazione continua a salire, molte persone sono scoraggiate dall'acquistarla. Questo è dovuto in parte al modo in cui le compagnie fanno soldi con queste polizze: facendo pagare a quelli a più alto rischio più del necessario per la protezione, lasciandoli incapaci e meno probabili se la loro copertura ha delle lacune (come spesso accade). E anche se ultimamente si è parlato di cambiare questo modello dato che le persone con scarso credito si trovano a pagare due volte di più perché non possono ottenere prestiti a causa non solo di una parte ma sia della responsabilità per danni alla proprietà che dei piani di assistenza sanitaria? Il che ci porta bene al prossimo argomento.. 

6-Mirada codificada. Si è visto che l'uso dell'IA sul posto di lavoro porta ad una maggiore discriminazione contro alcuni gruppi. Per esempio, l'elaborazione delle immagini facciali e il riconoscimento vocale spesso falliscono quando vengono applicati su set di dati che includono pochi volti o voci appartenenti a quelle popolazioni perché queste macchine non sono poi in grado di imparare correttamente da loro, il che si traduce in esperienze di esclusività e fastidiosi pregiudizi per tutti coloro che non sono abbastanza privilegiati!

Stabilire standard di apprendimento automatico come forma di attivismo sociale.

Se vogliamo risolvere i problemi di ingiustizia e disuguaglianza, è necessario che noi, come società, ci occupiamo della standardizzazione dell'apprendimento automatico e stabiliamo degli standard che vadano al di là di banalità carine ma vaghe come "essere giusti", "evitare pregiudizi" o "garantire la responsabilità". Senza essere definiti con precisione, questi slogan sono soggettivi e fanno poco per guidare un'azione concreta, specialmente quando molte aziende rilasciano principi senza fornire alcun dettaglio su come saranno implementati.

Hai una voce potente ed è più importante di quanto tu sappia. Come qualcuno che ha la capacità di dettare quali diritti i consumatori o i cittadini avranno accesso nel nostro paese, la tua prospettiva su questi temi può plasmare milioni di vite per gli anni a venire, quindi non esitare!

Come puoi vedere, ci sono molte considerazioni da fare prima di decidere un percorso di carriera nel mondo dell'intelligenza artificiale. Che si tratti di preoccupazioni etiche o di preoccupazioni su come sarà la vita dopo l'orario di lavoro, spero che questo articolo abbia aiutato a rispondere ad alcune domande e a guidare le tue decisioni future. Se qualcuno di questi argomenti ti ha lasciato più curioso che mai, non esitare a contattarmi per le tue esigenze aziendali a Torino!

Marco Lizzi

Titolare Responsabile Tecnico presso Alfa Maintenance Service - AMS di Marco Lizzi

3 anni

....alla fine, l'uomo che fine farà?

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate