Quando l’IA ha le allucinazioni
Se vi siete cimentati a testare le funzionalità dell’Intelligenza Artificiale, ormai lo saprete: non potete sempre fidarvi delle informazioni che vengono restituite dal prompt. Si tratta di un tema che tende ciclicamente a rifarsi vivo sugli organi d’informazione.
Che si tratti di riassunti di trame di film o di breaking news internazionali che la chatbot sembra ignorare del tutto, dobbiamo tener conto della possibilità che la tecnologia più calda del momento abbia delle allucinazioni.
Il termine è un po’ melodrammatico, ma per chi ha mai usato l’IA generativa, particolarmente calzante.
In effetti, si tratta proprio di un momento in cui la chatbot o il generatore d’immagine “vede” dei pattern o degli oggetti che non esistono. Un esempio è quello prodotto da un piccolo esperimento in cui ho chiesto a ChatGPT di riassumere un film il cui titolo è una mia invenzione.
Certo, in questo caso l’allucinazione nasce a monte, con un prompt che già contiene informazioni false, ma l’IA non si fa sempre ingannare con tanta facilità e la sua risposta di fronte ad una simile richiesta riguardante un inesistente film d’animazione della Pixar ha generato una risposta veritiera.
Quindi quand’è che l’IA non distingue più la realtà dall’”immaginazione”, se così possiamo chiamarla?
La questione è tecnica, ma, per fortuna, non incomprensibile.
Di fatto l’Intelligenza Artificiale lavora con dei modelli di linguaggio avanzato, che usano grandissime quantità di dati per elaborare delle risposte. Generalmente questa operazione avviene grazie a dei dati di addestramento che “insegnano” al software a “capire” cosa stiamo chiedendo di fare.
Questi dati però, possono essere incompleti, errati o distorti, portando l’Intelligenza Artificiale a creare connessioni tra dati che non sono collegati, fraintendere le nostre istruzioni o iper-semplificare informazioni fino a renderle fuorvianti, con risultati che possono ridurre l’utilità dell’IA generativa o, nelle mani sbagliate, creare disinformazione.
Consigliati da LinkedIn
Ma se le chatbot possono avere le allucinazioni, c’è un modo per “curarle”?
Pare di sì. Gli sviluppatori di settore stanno lavorando a nuovi metodi di addestramento dell’IA che prevedono un mix di esempi di connessioni logiche, alcuni normali e altri contradditori.
Questo addestramento dovrebbe insegnare alle IA a distinguere le informazioni vere da quelle false, riducendo il rischio di output eccessivamente creativi.
Ad ogni modo, per chi utilizza strumenti generativi nella comunicazione, l’unica vera garanzia contro le allucinazioni rimane quella prassi imprescindibile per ogni comunicatore degno di questo nome: il caro vecchio fact checking.
Se trovi interessante quello che hai letto, iscriviti alla newsletter.
Se stai cercando un partner a cui affidarti per la tua comunicazione, scrivimi!
Chi sono?
CEO di P&Co., società di consulenza strategica e comunicazione integrata.
Ci occupiamo di strategic consulting, digital communication e marketing, graphic design, video production, web development.
Promuovo una comunicazione consapevole che tenga sempre in considerazione l'altro, unendo empatia, bellezza e creatività.