AI e Sviluppo Morale
AI Generated image

AI e Sviluppo Morale

Con l’AI Act si è fatto, a livello europeo, un primo passo positivo per stabilire un insieme di regole e criteri orientati a controllare i diversi livelli di rischio associati all’evoluzione e all’uso delle varie piattaforme di intelligenza artificiale (AI) e l'adesione delle maggiori aziende è un ottimo segnale.

Tuttavia, le regole e le leggi sono ancora lontane dal compensare la mancanza intrinseca, nell’AI, dello sviluppo morale presente e integrato con le capacità cognitive dell’essere umano.

Le scienze umane ci insegnano che, nel caso umano, la valutazione logica non può prescindere da emozioni, sensi di colpa, autostima e, in particolare, valutazione morale, per poter generare i “prodotti finali” dei processi cognitivi in modo che essi possano essere positivamente accettati dagli individui e dalla società.

Lo sviluppo morale umano è un processo dinamico e multidimensionale che coinvolge una combinazione di fattori cognitivi, emotivi, sociali e culturali che costituiscono la base su cui il bambino acquisisce progressivamente i valori morali ed etici attraverso i quali valuterà ciò che è bene e ciò che è male. Secondo Jean Piaget, lo sviluppo cognitivo segue una serie di stadi che influenzano la capacità di giudizio morale, mentre Lawrence Kohlberg ha dettagliato come lo sviluppo morale si articoli in vari livelli, ciascuno caratterizzato da una crescente complessità etica.

Tornando all’AI, la parte di sviluppo morale intrinseca agli algoritmi è mancante. Le varie modalità con cui si gestiscono addestramento e auto-apprendimento sono generalmente basate su risultati logici utili per prevedere comportamenti, riconoscere pattern e prendere decisioni basate su enormi quantità di informazioni. Tuttavia, queste decisioni sono puramente logiche e mancano di una prospettiva etica e morale intrinseca, se non quella ereditata da coloro che hanno sviluppato il modello, con l’inevitabile inclusione dei propri bias e pregiudizi, potenzialmente dannosi quando le decisioni influenzate dall’AI possono essere ingiuste o discriminatorie.

Il modulo morale a garanzia dell'utente


Ad oggi, l’idea di integrare un insieme di regole etiche universalmente accettate in tutti i modelli di AI sembra utopica, ma il tema dovrà comunque essere affrontato e affiancato, secondo me, da soluzioni tecnologiche gestite da terze parti affidabili o enti governativi per la verifica, certificazione e tutela degli utenti finali, garantendo nel modo più trasparente possibile l’affidabilità e la sicurezza delle piattaforme utilizzate a beneficio di tutti.

#IntelligenzaArtificiale #AIAct #SviluppoMorale #EticaTecnologica #CognitiveDevelopment #JeanPiaget #LawrenceKohlberg #BiasAI #EticaAI #TecnologiaSicura #InnovazioneResponsabile #RegolamentazioneAI #EticaDigitale #AIethics #AIgovernance


Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate