Perché l'AI non dice le bugie

Perché l'AI non dice le bugie

Come tutte le buone storie tech, anche questa comincia con Apple. Con il lancio di iPhone 16 e il sistema operativo iOS 18.1 a settembre 2024, la big tech di Cupertino ha ufficialmente lanciato anche il suo sistema di intelligenza artificiale Apple Intelligence, che potenzia gran parte delle funzionalità dello smartphone attraverso l’uso della Generative AI. 

Si tratta di un sistema per il momento ancora non disponibile per gli smartphone degli utenti dell'UE (arriverà in aprile), mentre è già attivo per esempio (ma non solo) su quelli degli utenti inglesi e americani. Così qualche giorno fa questi “eletti” hanno ricevuto sul proprio iPhone una notifica di Apple Intelligence che segnalava un articolo della BBC – il canale allnews britannico, tra i più autorevoli al mondo – in cui si dava notizia del suicidio di Luigi Mangione, il ragazzo 26enne accusato dell’omicidio di Brian Thompson, CEO della UnitedHealthcare. Si è trattato di una notizia falsa, non solo perché il fatto non è avvenuto, ma anche perché la BBC non ha mai pubblicato la notizia in questione


Screenshot delle notifiche di Apple Intelligence, dall'articolo su bbc.com

Cosa è successo allora? Il modello generativo ha avuto un’allucinazione e a trarre ancora di più in inganno è stato l’accostamento del titolo di questo presunto articolo con titoli verosimili di notizie vere. 

 

Cosa sono le allucinazioni dell’AI 

«Essi ci ingannano: fanno credere di produrre un discorso sensato, mentre si tratta solo di imbrogli e giochi di prestigio» dice sarcasticamente degli LLM il matematico e filosofo Daniel Andler, nel suo libro Il duplice enigma. Intelligenza artificiale e intelligenza umana (Einaudi, 2024). Andler definisce “gioco di prestigio” quello che in realtà è un lavoro statistico: i modelli linguistici sono delle macchine probabilistiche che sanno mettere insieme dei dati già prodotti, non inediti. “Pappagalli stocastici” li aveva invece definiti l’articolo On the dangers of Stochastic Parrots, scritto dalle ex coordinatrici del gruppo di etica e intelligenza artificiale di Google, Tminit Gebru e Margareth Mitchell, e da due linguiste della University of Washington, Emily Bender e Angelina McMillan-Major: non avendo facoltà cognitive, i Large Language Model generano testi, per esempio, ripetendo degli schemi verbali già noti e utilizzati, sulla base delle probabilità che un “pezzetto di testo” vada dopo l’altro. Senza avere la capacità di verificare che la frase prodotta sia corretta o meno, in senso logico; o addirittura vera

Per questa ragione si parla di AI hallucinantion, cioè si dice che i modelli generativi siano suscettibili di allucinazioni: sono in grado di generare risultati sbagliati, falsi, fuorvianti, inverosimili facendo in modo che risultino comunque coerenti con quanto chiesto in input dall’utente. 


Foto di

Questo succede perché i modelli linguistici di grandi dimensioni sono appunto addestrati su quantità enormi di dati che in principio possono essere sbagliati, incompleti, faziosi o semplicemente troppo vecchi. 

Un’altra ragione per cui si può parlare di allucinazioni della GenAI è data dalla cosiddetta “overconfidence” del modello, e questo forse può essere la risposta più vicina alla domanda “l’AI dice bugie?”. I modelli sono stati progettati per dover dare delle risposte e, come se lo sapessero, fanno di tutto per dare all’utente quello che l’utente chiede: anche quando hanno informazioni insufficienti per farlo, anche quando non ne hanno affatto. Piuttosto, ci si inventa una risposta. 

Come detto, non avendo facoltà cognitive i modelli linguistici non hanno neanche la capacità intenzionale di mentire, di fuorviare, di inventare; rispondono soltanto a dei comandi e nel modo migliore che possono. Perciò la risposta è no, l’AI non mente, semplicemente può sbagliare. Chiederci se lo faccia o meno significa antropomorfizzare una tecnologia che, per quanto sembri ispirarsi all’intelligenza umana, resta fondata su modelli probabilistici che non fanno altro che fornire, appunto, le riposte più probabili ma non le più corrette – se le intendiamo da un punto di vista logico-semantico o di causa-effetto. 

 

Come non “cascarci”: istruzioni per l’uso (corretto) 

Tutto questo non fa certo perdere consistenza al potenziale degli strumenti di Generative AI, piuttosto ci mette in guardia dall’essere degli utenti consapevoli, scrupolosi e critici – un principio che dovrebbe essere basilare nell’uso di qualsiasi tecnologia: ci ricorda che l’intelligenza artificiale non serve a sostituire, ma a supportare (enormemente) il lavoro umano.  

Per “non cascarci”, le indicazioni sono principalmente 3: 

  • Supervisionare i contenuti, quindi verificare sempre le informazioni che non conosciamo risalendo e valutandone le fonti; osservare bene, laddove si tratti di immagini/video generati 

  • Costruire bene i prompt, quindi fare attenzione ai comandi che si danno in input al modello, a ciò che si chiede 

  • Farsi affiancare da professionisti ed esperti, in particolare quando si tratta di voler introdurre all’interno dei propri processi aziendali. In Dst - Creative Tech Company e Live Tech Srl , sappiamo che affiancare un’azienda nell’implementazione dell’AI significa studiare e sviluppare un sistema di governance che parta dalla data quality e arrivi al controllo e monitoraggio in corsa, per tenere sotto controllo eventuali drift – cioè derive – dei dati, del modello e del concetto. 

 

Vuoi scoprire come integrare la GenAI nei tuoi processi aziendali e nel tuo business senza rischi? Contattaci qui o su dstech.it 
Massimo Manganaro

Ethics and Responsible AI Advisor | Digital Content Strategist | Bridging Ethics and Innovation in Emerging Technologies

3 settimane

Proprio perché le AI generative non sono coscienti, come giustamente sottolineate anche voi, non possono mentire. Ecco perché, con un ragionamento relativo alla linguistica e alla filosofia, alcuni filosofi rigettano il termine "allucinazione" e riprendono quello di "stronzata" introdotto da Harry Frankfurt. Che poi riprende il concetto di "sciocchezza" di Black, come lo stesso Frankfurt afferma. Proprio perché non c'è consapevolezza, e quindi non c'è malignità, ma al tempo stesso le affermazioni sono plausibili ma fatte senza preoccuparsi della verità, ecco che sarebbe meglio chiamarle "stronzate", o "sciocchezze" se vogliamo essere più educati, invece che "allucinazioni". Ma ormai "allucinazione" è entrato nell'uso comune, e poi rende più "umano" l'AI generativa, e allora continuiamo a chiamarle così.

Per visualizzare o aggiungere un commento, accedi

Altri articoli di Dst - Creative Tech Company

Altre pagine consultate