LE TRE LEGGI DELL’INTELLIGENZA ARTIFICIALE

LE TRE LEGGI DELL’INTELLIGENZA ARTIFICIALE


Mi duole informare che le tre leggi della robotica di Asimov non valgono più.

 

O meglio, hanno un’applicazione molto limitata, e non rappresentano più delle regole generali con cui difendersi dallo strapotere dei robot.

 

Sono famose, ma le ricordiamo:

 

Prima legge della robotica

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

 

Seconda legge della robotica

A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.

Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.

 

Terza legge della robotica

A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

 

 

Queste tre leggi sono state pensate in un mondo in cui la paura dei robot era soprattutto una paura fisica: il “danno” a cui fanno riferimento le leggi è soprattutto un danno fisico.

La prima legge introduce il divieto di fare danni, la seconda la regola dell’obbedienza agli ordini umani (ma non a quelli impartiti per creare danni). Ma la terza, quella che mi ha sempre inquietato di più, dice: un robot deve proteggere la propria esistenza (se non in contrasto con ordini o comportamenti non dannosi).

 

Mi inquieta perché è una legge che tutela un diritto umano, non artificiale. Vi ricordate HAL 9000? Lui contraddice la terza legge, rifiutandosi di morire.


Hal 9000


Queste tre leggi non reggono più nel mondo dell’intelligenza artificiale generativa, cioè un mondo nel quale noi investiamo miliardi di dollari per insegnare a degli algoritmi come pensano gli esseri umani (e nel quale magari dovremmo investire una cifra comparabile per insegnare agli umani come pensano gli algoritmi).

 

In ogni caso, l’AI cambia le regole del gioco.

 

La dico subito e tutta: io penso che abbia molto ragione chi ritiene che sia improprio parlare di intelligenza artificiale. I Large Language Models non creano “macchine intelligenti”. Su questo possiamo essere tutti d’accordo. Però creano macchine che sembrano intelligenti. Questo basta per legittimarle come soggetti su cui dobbiamo interrogarci.

 

Il dominio del linguaggio e del contesto nel quale il linguaggio si svolge è una condizione sufficiente per far apparire intelligenti anche umani che non lo sono. Figuriamoci una macchina.

 


Ne deriva che gli algoritmi possono confonderci. Anzi, di più: possono confondersi tra di noi, scrivere notizie, articoli, suggerirci film, esserci amici e confidenti, consigliarci, farci arrabbiare, farci immaginare immagini e strategie future, immedesimarsi. Forse non lo sono davvero, ma sembrano più intelligenti di molti umani.

 

E questo è il primo punto: le tre leggi non bastano perché i robot su cui possono essere installati gli algoritmi dell’AI sembrano essere intelligente, sembrano esseri intelligenti.

 

Il secondo punto è che è inevitabile che prima o poi ci stancheremo di pensare e lo faremo fare a loro.

 

Come abbiamo visto più volte, tutta la storia dell’uomo è stata un progressivo cammino ad emancipare pezzi di sé, ad esternalizzare la mano, l’occhio, la lingua, la memoria. Il cervello è un organo pigro e parsimonioso: sa di dover morire, questa è l’unica coscienza vera che possiede. Sa che la sua esistenza è limitata, e che il risparmio energetico gli consente di vivere un po’ più a lungo. Per proteggere la sua sopravvivenza, allungando la sua vita, ha inventato macchine, nuove energie, nuove scienze.

Quando gli algoritmi dell’AI diventeranno economicamente convenienti dal punto di vista energetico sarà inevitabile affidarsi a “cervelli esterni” per svolgere molte attività mentali tipiche dell’intelligenza.

Abbiamo già “esternalizzato” il calcolo (dalla calcolatrice in poi; domanda a bruciapelo: quanto fa 12x11? Vietato usare Excel o il cellulare); abbiamo esternalizzato la nostra memoria; abbiamo persino esternalizzato gli apparati della percezione, quelli che fanno dire al cervello: io sono qui, quella è una rosa, questo fuoco è di colore rosso.

 

Che questa soglia sia molto vicina, lo potete leggere nell’articolo che segue (articolo complicato, ve lo dico). Eliminando la moltiplicazione di matrici (MatMull), il costo computazionale si abbassa a livelli tali da renderlo comparabile, in termini di consumo, al cervello umano (-61% nella fase di training, riduzione di 10 volte nella fase di inferenza):


Mat-Mull free language modeling


Ci vorrà qualche anno, forse, ma succederà: sarà più efficiente far pensare, per larghe fette di attività, una macchina. Per tutto quello che sta succedendo, per la pervasività degli algoritmi basati sull’AI che ci circondano, direi che non è un problema di “se” succederà ma soltanto di “quando”.

 

Arrivare preparati richiede di progettare molti aspetti. Il punto da cui inizierei (ma sono aperto a suggerimenti), è riscrivere le leggi della robotica e vietare agli algoritmi di appropriarsi degli strumenti che noi abbiamo usato per diventare umani (sapiens, per l’esattezza).

 

Il primo elemento è la libertà (che ci ha fatto scegliere di diventare quello che siamo), il secondo è il linguaggio (che ci ha consentito di classificare il mondo e ci ha reso intelligenti), il terzo è la socialità, che ci ha reso possibile pensare al futuro.

 

Provo a ipotizzare le prime tre leggi, ma se volete, scrivetemi le vostre e le raccogliamo a mo’ di manifesto:

 

 

Prima legge dell’intelligenza artificiale

Un sistema di intelligenza artificiale non può autonomamente essere libero di formarsi, decidere o validare informazioni se non con il consenso dell’umano o degli umani che lo stanno utilizzando.

 

Seconda legge dell’intelligenza artificiale

Un sistema di intelligenza artificiale non può sviluppare un proprio linguaggio, in particolare se tale linguaggio non è comprensibile agli umani. Non è consentito il dialogo tra sistemi di intelligenza artificiale in assenza di una supervisione umana e di un esplicito consenso in ogni loro fase decisionale.

 

Terza legge dell’intelligenza artificiale

È vietato che uno o più sistemi di intelligenza artificiale perseguano obiettivi, di natura individuale o collettiva, diversi da quelli assegnati dal loro creatore.

 

 

 

 


Sintesi ChatGPT

Le tre leggi della robotica di Asimov, ideate per un'epoca in cui la principale preoccupazione riguardava il danno fisico che i robot potevano causare agli esseri umani, non sono più sufficienti nel contesto dell'intelligenza artificiale generativa. Questa nuova generazione di AI non si limita a compiere azioni fisiche, ma possiede capacità avanzate di interazione e apprendimento che influenzano profondamente la società e gli individui. Pertanto, è necessario aggiornare queste leggi per rispondere alle sfide moderne.

Critica alle Tre Leggi della Robotica di Asimov

Prima Legge della Robotica: Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

Seconda Legge della Robotica: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto con la Prima Legge.

Terza Legge della Robotica: Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Queste leggi, pur avendo un fascino letterario e una logica intrinseca, sono pensate per un contesto dove il "danno" è principalmente fisico. Tuttavia, le intelligenze artificiali moderne operano in ambiti molto più complessi e i danni che possono causare vanno oltre il mero fisico, includendo aspetti psicologici, sociali ed economici.

Le Nuove Sfide dell'Intelligenza Artificiale

Gli attuali sistemi di intelligenza artificiale sono progettati per comprendere e imitare il comportamento umano, fino a sembrare intelligenti. Questo può indurre in errore gli utenti, portandoli a fidarsi eccessivamente di tali sistemi o a delegare loro compiti cognitivi importanti. Inoltre, l'efficienza energetica e la convenienza economica delle AI potrebbero accelerare l'adozione di "cervelli esterni" per svolgere molte attività mentali umane, rendendo necessaria una revisione delle leggi che governano il loro operato.

Nuove Tre Leggi dell'Intelligenza Artificiale

Prima Legge dell'Intelligenza Artificiale: Un sistema di intelligenza artificiale non può autonomamente ritenersi libero di decidere se non con il consenso dell’umano o degli umani che lo stanno utilizzando. Questa legge garantisce che ogni decisione importante presa dall'AI sia sotto la supervisione umana, prevenendo comportamenti indipendenti che potrebbero essere dannosi.

Seconda Legge dell'Intelligenza Artificiale: Un sistema di intelligenza artificiale non può sviluppare un proprio linguaggio, in particolare se tale linguaggio non è comprensibile agli umani. È inoltre vietato il dialogo tra sistemi di intelligenza artificiale in assenza di una supervisione umana e di un esplicito consenso in ogni loro fase decisionale. Questa legge impedisce la creazione di linguaggi incomprensibili agli esseri umani, garantendo trasparenza e controllo su ogni forma di comunicazione tra AI.

Terza Legge dell'Intelligenza Artificiale: È vietato che uno o più sistemi di intelligenza artificiale perseguano obiettivi diversi da quelli assegnati dal loro creatore, siano essi di natura individuale o collettiva. Questa legge assicura che l'AI non possa deviare dai compiti e dagli obiettivi prestabiliti, evitando che sviluppi agende proprie che potrebbero entrare in conflitto con gli interessi umani.

Adattare le leggi della robotica di Asimov ai moderni sistemi di intelligenza artificiale è fondamentale per affrontare le nuove sfide poste da queste tecnologie avanzate. Le nuove leggi proposte mirano a mantenere il controllo umano, garantire la comprensibilità e prevenire deviazioni dagli obiettivi stabiliti, proteggendo così l'umanità dai potenziali rischi dell'AI.

 

 

 

 

 

L’articolo riflette le opinioni strettamente personali dell’autore. Eventuali errori, mancanze o imprecisioni nei contenuti sono imputabili esclusivamente allo stesso.

 

 



Temo che prima di pensare alle leggi della IA o.ccorra capire se esiste davvero un confine fra essere umano e macchina. Tutto era più facile per Asimov limitare un robot e non una rete di conoscenze sconfinata e mai immaginata prima. Insomma, l'IA ha ancora necessità di essere definita. Non è un caso che per la casalinga di Voghera, IA significhi ancora robotica

Roberto Bergamini

INSURANCE MANAGER presso Wide Group SpA

5 mesi

L'uomo non può essere Dio, ma è sempre piu vicino a Satana

Salvatore Greco

Fintech Strategy & Execution, Business development, sales, delivery management

5 mesi

per chi, come me, è cresciuto leggendo Asimov tra il 1972 (ebbene si.. sono un boomer..) ed il 1991 (anno in cui ho messo su famiglia), leggere questo articolo riporta a ricordi di tantissimi racconti brevi in cui Asimov costruisce diversi casi in cui si tenta di aggirare le famose tre leggi della robotica. lo stimolo alla riflessione per un "manifesto" è interessante, ma ci sta lavorando su la UE e mi sembra poco utile per me contribuire. preferisco leggere i contributi delle giovani menti che vorranno farlo. grazie Francesco Betti

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate