Perché l'AI non dice le bugie
Come tutte le buone storie tech, anche questa comincia con Apple. Con il lancio di iPhone 16 e il sistema operativo iOS 18.1 a settembre 2024, la big tech di Cupertino ha ufficialmente lanciato anche il suo sistema di intelligenza artificiale Apple Intelligence, che potenzia gran parte delle funzionalità dello smartphone attraverso l’uso della Generative AI.
Si tratta di un sistema per il momento ancora non disponibile per gli smartphone degli utenti dell'UE (arriverà in aprile), mentre è già attivo per esempio (ma non solo) su quelli degli utenti inglesi e americani. Così qualche giorno fa questi “eletti” hanno ricevuto sul proprio iPhone una notifica di Apple Intelligence che segnalava un articolo della BBC – il canale allnews britannico, tra i più autorevoli al mondo – in cui si dava notizia del suicidio di Luigi Mangione, il ragazzo 26enne accusato dell’omicidio di Brian Thompson, CEO della UnitedHealthcare. Si è trattato di una notizia falsa, non solo perché il fatto non è avvenuto, ma anche perché la BBC non ha mai pubblicato la notizia in questione.
Cosa è successo allora? Il modello generativo ha avuto un’allucinazione e a trarre ancora di più in inganno è stato l’accostamento del titolo di questo presunto articolo con titoli verosimili di notizie vere.
Cosa sono le allucinazioni dell’AI
«Essi ci ingannano: fanno credere di produrre un discorso sensato, mentre si tratta solo di imbrogli e giochi di prestigio» dice sarcasticamente degli LLM il matematico e filosofo Daniel Andler, nel suo libro Il duplice enigma. Intelligenza artificiale e intelligenza umana (Einaudi, 2024). Andler definisce “gioco di prestigio” quello che in realtà è un lavoro statistico: i modelli linguistici sono delle macchine probabilistiche che sanno mettere insieme dei dati già prodotti, non inediti. “Pappagalli stocastici” li aveva invece definiti l’articolo On the dangers of Stochastic Parrots, scritto dalle ex coordinatrici del gruppo di etica e intelligenza artificiale di Google, Tminit Gebru e Margareth Mitchell, e da due linguiste della University of Washington, Emily Bender e Angelina McMillan-Major: non avendo facoltà cognitive, i Large Language Model generano testi, per esempio, ripetendo degli schemi verbali già noti e utilizzati, sulla base delle probabilità che un “pezzetto di testo” vada dopo l’altro. Senza avere la capacità di verificare che la frase prodotta sia corretta o meno, in senso logico; o addirittura vera.
Per questa ragione si parla di AI hallucinantion, cioè si dice che i modelli generativi siano suscettibili di allucinazioni: sono in grado di generare risultati sbagliati, falsi, fuorvianti, inverosimili facendo in modo che risultino comunque coerenti con quanto chiesto in input dall’utente.
Questo succede perché i modelli linguistici di grandi dimensioni sono appunto addestrati su quantità enormi di dati che in principio possono essere sbagliati, incompleti, faziosi o semplicemente troppo vecchi.
Consigliati da LinkedIn
Un’altra ragione per cui si può parlare di allucinazioni della GenAI è data dalla cosiddetta “overconfidence” del modello, e questo forse può essere la risposta più vicina alla domanda “l’AI dice bugie?”. I modelli sono stati progettati per dover dare delle risposte e, come se lo sapessero, fanno di tutto per dare all’utente quello che l’utente chiede: anche quando hanno informazioni insufficienti per farlo, anche quando non ne hanno affatto. Piuttosto, ci si inventa una risposta.
Come detto, non avendo facoltà cognitive i modelli linguistici non hanno neanche la capacità intenzionale di mentire, di fuorviare, di inventare; rispondono soltanto a dei comandi e nel modo migliore che possono. Perciò la risposta è no, l’AI non mente, semplicemente può sbagliare. Chiederci se lo faccia o meno significa antropomorfizzare una tecnologia che, per quanto sembri ispirarsi all’intelligenza umana, resta fondata su modelli probabilistici che non fanno altro che fornire, appunto, le riposte più probabili ma non le più corrette – se le intendiamo da un punto di vista logico-semantico o di causa-effetto.
Come non “cascarci”: istruzioni per l’uso (corretto)
Tutto questo non fa certo perdere consistenza al potenziale degli strumenti di Generative AI, piuttosto ci mette in guardia dall’essere degli utenti consapevoli, scrupolosi e critici – un principio che dovrebbe essere basilare nell’uso di qualsiasi tecnologia: ci ricorda che l’intelligenza artificiale non serve a sostituire, ma a supportare (enormemente) il lavoro umano.
Per “non cascarci”, le indicazioni sono principalmente 3:
Vuoi scoprire come integrare la GenAI nei tuoi processi aziendali e nel tuo business senza rischi? Contattaci qui o su dstech.it
Ethics and Responsible AI Advisor | Digital Content Strategist | Bridging Ethics and Innovation in Emerging Technologies
3 settimaneProprio perché le AI generative non sono coscienti, come giustamente sottolineate anche voi, non possono mentire. Ecco perché, con un ragionamento relativo alla linguistica e alla filosofia, alcuni filosofi rigettano il termine "allucinazione" e riprendono quello di "stronzata" introdotto da Harry Frankfurt. Che poi riprende il concetto di "sciocchezza" di Black, come lo stesso Frankfurt afferma. Proprio perché non c'è consapevolezza, e quindi non c'è malignità, ma al tempo stesso le affermazioni sono plausibili ma fatte senza preoccuparsi della verità, ecco che sarebbe meglio chiamarle "stronzate", o "sciocchezze" se vogliamo essere più educati, invece che "allucinazioni". Ma ormai "allucinazione" è entrato nell'uso comune, e poi rende più "umano" l'AI generativa, e allora continuiamo a chiamarle così.