Nuovo umanesimo digitale e 4° Rivoluzione industriale : Uso responsabile dell’AI.

Nuovo umanesimo digitale e 4° Rivoluzione industriale : Uso responsabile dell’AI.

Sentiamo sempre più spesso parlare di Intelligenza Artificiale e degli impatti positivi e negativi che questa può portare nella vita di ciascuno di noi.

Effettuando una rapida ricerca su Google trends delle ricerche delle parole chiave AI e Chat- GPT, possiamo notare un esponenziale crescita delle ricerche online da novembre 2022 (anche se il trend per AI inizia a crescere in maniera importante già dal 2008) come evidenziato in Fig.1.

Non è stato fornito nessun testo alternativo per questa immagine
Fig. 1 - Trend di ricerca su Google su AI (BLU) e Chat GPT (Rosso)


 È un settore, quello dell’intelligenza artificiale, dominato dalle aziende americane capaci di attrarre ingenti quantità di investimenti.

Per le startup che operano in questo settore sono stati raccolti fino ad ora circa 14 Miliardi di Dollari[1]. Open AI (ideatrice di CHAT GPT) ha ottenuto da sola il 79,4% di queste somme.

Attualmente l’AI trova tantissime applicazioni soprattutto nei seguenti ambiti (Fig.2):

Non è stato fornito nessun testo alternativo per questa immagine
Fig.2 - Alcuni esempi di come viene utilizzata l’AI Fonte : Commissione Europea

·        processamento di dati (es. algoritmi di Machine learning);

·        comprensione del linguaggio (es. GPT-3)

·        interazione con essere umani (ad esempio Chat GPT, SIRI, Alexa);

·        analisi di video e immagini (es. riconoscimento facciale in tutti gli Smartphone);

·        guida dei veicoli (es. Autopilot Tesla);

·        attività in ambito industriale (es. Robot autonomi);

·        risoluzione di problemi.

Prima però di continuare a parlare di AI è opportuno darne prima una definizione.

Il termine Intelligenza artificiale fu coniato dal matematico americano John McCarthy nel 1956 durante un seminario presso il Dartmouth College nel New Hampshire a cui partecipò anche Alan Touring.

Quest’ultimo è considerato il padre dell’intelligenza artificiale (lo stesso che fu l’inventore di Enigma – la macchina che decriptò i messaggi in codice dei tedeschi durante la Seconda guerra mondiale) ed introdusse già nel 1950 l’omonimo test attraverso il quale si può determinare in maniera univoca se una macchina sia in grado di esibire un comportamento intelligente o meno.

Possiamo definire L’intelligenza artificiale (IA) come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività[2]

Nella lettera aperta “Priorità di ricerca per un'intelligenza artificiale robusta e benefica” pubblicata ad ottobre del 2015[3] sul sito dell’Istituto Future of life, l'intelligenza artificiale può farci raggiungere risultati ambiziosi, ma deve fare solo quello che noi vogliamo che faccia (tra i firmatari ci sono persone del calibro di Stephen Hawking, Elon Musk, Eric Horvitz, gli italiani Francesca Rossi e Rodolfo Rosini).

A giugno 2018 anche L’Unione Europea, vista la crescente attenzione dell’opinione pubblica ed il diffuso utilizzo di AI anche nel mondo industriale e non, ha pubblicato il suo codice etico [4]  (Fig.3) per l’utilizzo dell’intelligenza artificiale.

Non è stato fornito nessun testo alternativo per questa immagine
Fig.3 – Frontespizio del Codice etico per l'utilizzo AI

È stato costituito ad hoc un tavolo di lavoro con un team di 52 esperti indipendenti, denominato AI HLEG (High-Level Expert Group on Artificial Intelligence) che si è occupato di redigere questo documento grazie anche all’interazione con i cittadini che potevano fornire liberamente il loro contributo online.

Il punto di partenza delle linee guida è che l’AI deve essere uomo-centrica, una sorta quindi di nuovo umanesimo in campo digitale.

Sono stati individuati 7 capisaldi da seguire per AI Affidabile[5]:

·        Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo;

·        Robustezza e sicurezza: per un'IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA;

·        Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e allo stesso tempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli

·        Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA;

·        Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili;

·        Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica;

·        Responsabilità intesa anche come accountabilitydovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di IA e dei loro risultati

Anche il mondo industriale non è rimasto a guardare, prendendo posizione su questa importante tematica.

Nel 2020 la Bosch ha introdotto il suo codice etico per l’AI e si è data l’obiettivo di dotare tutti i suoi prodotti di intelligenza artificiale, oppure di fare in modo che siano sviluppati o realizzati con l’aiuto dell’IA entro il 2025.

Bisogna segnalare che a marzo 2023 c’è stato un primo segnale di stop (o meglio di pausa) per lo sviluppo dell’AI.

Infatti, sempre l’Istituto Future of life ha pubblicato una lettera aperta[6] (rilanciata anche sul Financial Times) firmata da oltre 1000 leader della Silicon Valley (tra cui Elon Musk) in cui si propone uno stop temporaneo allo sviluppo degli esperimenti nei laboratori di AI che recentemente hanno portato allo sviluppo di software e menti digitali incontrollabili anche per gli stessi creatori.

Anche in Italia, il 31 marzo 2023 il Garante della privacy ha deciso di bloccare temporaneamente l’utilizzo di Chat GPT a causa della raccolta illecita dei dati personali [7].

Infatti, la stessa Chat GPT lo scorso 20 marzo 2023 aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante della privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

Dal 28 aprile 2023 Chat GPT è tornata disponibile anche in Italia, dopo l'accordo tra il Garante della Privacy e Open AI, che ha accolto le richieste dell’Autorità.

Altra notizia che ha rilanciato la discussione su questa tematica sono state le dimissioni a maggio 2023 di Geoffrey Hinton dal suo ruolo in Alphabet (Google).

Considerato uno dei massimi esperti internazionali di AI grazie alla sua attività di ricerca focalizzata sulle reti neurali e sulla modellazione dei sistemi di AI che sono alla base del funzionamento di alcuni prodotti moderni (nel 2018 ha ottenuto il premio Turing per le sue ricerche sul Deep learning), si è dimesso per poter parlare liberamente dei rischi associati allo sviluppo incontrollato dell’AI.

Parlando delle Chatbox AI ha dichiarato che: “Al momento, non sono più intelligenti di noi, per quanto ne posso dire. Ma penso che presto lo saranno

Aggiunge inoltre: “C’è un enorme potenziale in questa tecnologia, ma è essenziale che il mondo investa pesantemente e urgentemente nella sicurezza e nel controllo dell’AI

Le dichiarazioni di Hilton sono focalizzate quindi su un utilizzo controllato e responsabile dell’AI.

È importante analizzare anche l’impatto che lo sviluppo dell’AI sta avendo ed avrà sul mondo del lavoro perché di fatto stiamo vivendo una nuova rivoluzione industriale (la quarta).

Secondo il Future of Jobs Report pubblicato a maggio 2023 dal World Economic Forum[8], quasi il 25% dei posti di lavoro cambieranno nei prossimi 5 anni.

Uno studio condotto da Accenture negli US, riporta che circa il 40% del totale delle ore lavorate potrebbe essere influenzato da modelli di linguaggio di grandi dimensioni di intelligenza artificiale (LLM) come ChatGPT-4 (Fig.4).

Non è stato fornito nessun testo alternativo per questa immagine
Fig.4 – Studio condotto da Accenture in US su forza lavoro del 2021.


Inoltre, si prevede un aumento del 40% della domanda di specialisti di intelligenza artificiale, data scientist ed esperti di trasformazione digitale entro il 2027.

 Quindi la sfida più grande per le aziende nei prossimi anni sarà quella di formare i propri dipendenti affinché siano in grado di sfruttare al massimo le potenzialità che può dare l’AI.

In Fig. 5 sono riportati temi principali oggetto del “Reskilling focus” sulle quali si concentreranno le imprese nel periodo 23-27.

 

Non è stato fornito nessun testo alternativo per questa immagine
Fig.5 – Resklling focus 2023-27 – Fonte World Economic Forum

In Fig. 6 sono riportate le skill core nel 2023 vs le skills su cui si focalizzeranno le imprese nei prossimi 5 anni (23-27)

Non è stato fornito nessun testo alternativo per questa immagine
Fig.6 – Core Skill for workers in 23 vs Resklling focus 2023-27 – Fonte World Economic Forum


In questo articolo abbiamo affrontato “at glance” quali sono le potenzialità ed i rischi associati all’utilizzo dell’AI trascurando uno degli aspetti più importanti: il diritto d’autore.

La domanda sorge spontanea: a chi attribuire la paternità di un’opera creata da un algoritmo di AI?

Recentemente la Corte di Cassazione con l’ordinanza n. 1107 del 16 gennaio 2023 ha riconosciuto la proprietà artistica dell’opera “The scent of the night” realizzata dalla designer Chiara Biancheri, condannando la RAI a risarcire l’autrice per i danni cagionati dalla violazione del diritto d’autore in quanto la stessa era stata utilizzata come scenografia digitale a Sanremo 2016.

E’ importante aggiungere che non tutte le opere create da software o AI possano godere dei diritti di copyright : va chiarito caso per caso quanto è stato l’apporto dell’artista rispetto all’algoritmo/software utilizzato.





Per visualizzare o aggiungere un commento, accedi

Altri articoli di Simone Orrù

Altre pagine consultate