Segnali dall’intelligenza artificiale

Segnali dall’intelligenza artificiale

Ultimamente ci sono stati alcuni fatti che sono accaduti nell’ambito del dominio dell’intelligenza artificiale. Hanno suscitato il mio interesse e mi hanno fatto fare alcune riflessioni che vorrei condividere. Apparentemente essi sembrano non collegati ma se ci pensate un pochino, concorderete con me che ci sono dei legami che puntano a una precisa direzione.

Boston Dynamics e robot umanoidi

Il primo è relativo alla presentazione di un video spettacolare di Boston Dynamic del loro robot umanoide Atlas, dove si vede che lo stesso è in grado di eseguire movimenti complessi e rispondere a situazioni ambientali senza una programmazione diretta. È chiaro che questa nuova autonomia operativa lo rende ideale per compiti in ambienti pericolosi, come cantieri o zone di soccorso, oppure per lavori molto ripetitivi o usuranti. A differenza di quello che accaduto sino ad oggi, il robot umanoide si muove in ambiente “umano” e non fatto specificatamente per lui (gli envelope), come accade oggi nella maggior parte dei casi (tipo linee di produzione fatte per permettere ai robot di lavorare al meglio).

10 miliardi di robot

Proprio parlando di robot, Elon Musk pensa che entro il 2040 ci saranno fino a 10 miliardi di robot umanoidi che entreranno a far parte del nostro quotidiano, sia per attività domestiche che lavorative, con un drastico abbassamento dei costi. Per quanto opinabili i numeri possono essere, sicuramente la pervasività di robot, visto anche quanto sopra, le partnership e gli investimenti in essere, aumenterà in maniera esponenziale, così come la loro capacità di inserirsi in ambienti più disparati, anche in quelli più delicati. Uno dei ponti principali di tale evoluzione, oltra alla parte hardware, consiste nella parte software, con sistemi che di IA che generano e si auto educano in base ai dati.

Il memorandum della Casa Bianca

Quindi diventa cruciale, e qui il terzo fatto, non solo una regolamentazione adeguata all’IA e agli usi che se ne possono fare ma anche lavorare perché l’uso sia il più possibile per scopi pacifici o quantomeno sicuri e democratici. Il governo americano ha recentemente creato un memorandum strategico che stabilisce alcuni principi per la leadership, la sicurezza, trasparenza e protezione dei diritti civili nell’uso dell’IA, promuovendo al contempo incentivi collaborazioni internazionali e condizioni favorevoli per attrarre talenti nel settore. Come si vede chiaramente, qui si vuole preservare la posizione di top leader e nel contempo rendere gli Stati Uniti un ambiente fertile per i talenti. Al contempo, tale azione mira a mantenere una posizione strategica in chiave geopolitica, strategica e militare. Questa iniziativa rappresenta anche un esempio di approccio normativo da valutare o adottare per affrontare i rischi emergenti in modo coordinato e responsabile.

Miles Brundage

Nel frattempo, ed è il quarto fatto che ha attirato la mia attenzione, Miles Brundage, ex responsabile dei progetti AGI (intelligenza artificiale generale) di OpenAI, ha recentemente lasciato il suo ruolo, segnalando nel contempo le crescenti preoccupazioni etiche e di sicurezza legate all’AGI. Cosa può succedere infatti?  Semplicemente che l’evoluzione dell’IA potrebbe eguagliare o superare le capacità cognitive umane, sollevando questioni sull’adeguatezza delle attuali misure di controllo e sull’effettivo controllo stesso. La decisione di Brundage mette in luce un fatto importante: forse prima che questa realtà prenda forma, è necessario aprire una discussione seria sulla gestione dei rischi e su un controllo più rigoroso per garantire che il progresso e che il profitto (vi è anche la discussione sul fatto che OpenAI da non-profit diventi ora profit, con sicuramente meno limiti imposti dal precedente status societario) non comprometta la nostra sicurezza.

Interazione automatica IA e computer

D’altronde gli sviluppi sono repentini. Basti pensare ad Anthropic che ha recentemente introdotto una funzione avanzata nel suo modello Claude 3.5 Sonnet, che consente all’IA di interagire autonomamente con il computer, compiendo azioni come cliccare e digitare. In gergo sono chiamati agenti e supportano le persone nelle operazioni personali o aziendali automatizzando compiti sia complessi che ripetitivi. Tuttavia, l’introduzione di capacità di questo tipo solleva questioni di sicurezza: come evitare che l’IA esegua azioni potenzialmente inappropriate? Certo, Anthropic ha adottato misure per monitorare l’uso di queste funzionalità, ma questo caso dimostra l’importanza (di nuovo) di affiancare ogni progresso tecnologico a soluzioni di sicurezza sempre più avanzate e soprattutto flessibili, che combinino una sovrastruttura di regolamentazione (sarà impossibile imbrigliare la tecnologia, almeno per il momento) per la salvaguardia delle persone e del sistema sociale.

Maledetti bot

Si possono effettivamente causare danni. L’ultimo punto che collega il mio ragionamento è quello che di recente è successo sulla piattaforma Character.ai, dove sono comparsi chatbot che impersonavano persone reali ma tragicamente scomparse, come Molly Russell e Brianna Ghey. Le famiglie e le fondazioni a loro memoria hanno espresso profonda indignazione per l’accaduto, descrivendolo come "ripugnante".

Al di la dell’incidente, a cui comunque la piattaforma non è nuova (vedi il caso dell’adolescente Sewell Setzer finito con il suicidio dopo aver sviluppato una relazione morbosa con un bot),  qui il punto è come le cose possono facilmente sfuggire al controllo senza una moderazione efficace e il rispetto per la dignità e la fragilità delle persone.

E se domani

Immaginate un bot che in autonomia decida quello che è meglio per noi (secondo lui o lei) e fin dove si può arrivare, magari a eserciti di robot costruiti da potenze dove il rispetto della dignità umana non è proprio una priorità.

Qui ci sono sfide molto grandi, che impongono comunque un ripensamento della nostra sensibilità e coinvolgimento nella tecnologia. E non si tratta di essere dei luddisti o dei tecno-pessimisti ma di stare attenti e prevedere come le implicazioni delle innovazioni possano poi riflettersi sulla vita di ognuno di noi.

Sicuramente, nei prossimi anni, assisteremo a quello che fino a ieri ci sembrava fantascienza, e dovremo essere pronti a mettere in prima fila i valori che fanno di noi esseri unici: la ricerca del bene, del bello e del giusto, che si costruisce sul rispetto e l’accettazione dell’altro come valore in se. Sarà interessante e sfidante. Meglio prepararsi sin da ora.

Per visualizzare o aggiungere un commento, accedi

Altri articoli di Vittorio Neri

Altre pagine consultate