Scrivere articoli con l’Intelligenza Artificiale (AI)

Scrivere articoli con l’Intelligenza Artificiale (AI)

Uno degli argomenti più in voga in questo periodo è quello delle IA di nuova generazione, in grado di generare testi e immagini di qualità nettamente superiore a tutti i software che le hanno precedute. Parte dello scalpore nasce dal fatto che in certi casi i risultati sono talmente buoni da essere paragonabili ai prodotti analoghi creati da professionisti del settore. Molti poi sollevano problemi etici e morali sull’uso di queste IA come strumento nella vita quotidiana, spaziando dalla violazione di diritti d’autore, alla perdita di posti di lavoro, fino alla classica sindrome di Frankenstein. Tali preoccupazioni si sono espresse a vari livelli, tramite discussioni sui social, manifestazioni, petizioni, e persino azioni legali. Alcune di queste preoccupazioni sono indubbiamente valide, come quelle sulla violazione della privacy, e chi si occupa di IA ci sta già ponendo rimedio, altre sono condivisibili e altre ancora lo sono di meno. Personalmente penso che queste IA siano uno strumento molto potente e in continua crescita, nonostante la presenza di errori che con il tempo saremo in grado di superare. . Provando l’ormai famosissima chatGPT una delle cose che più mi ha stupito, dopo l’iniziale ‘effetto wow’ per la qualità della conversazione, è quanto sia remissiva e gentile, scusandosi per qualunque cosa su cui si faccia obiezione. Sono circolati diversi esempi di questo comportamento, spesso tanto estremi da risultare ridicoli, se pur attualmente il comportamento risulti meno remissivo. La gentilezza e l’essere 'politically correct’ pare siano uno degli obiettivi principali nella creazione di questo tipo di IA. Penso che questo sia dovuto ai primi modelli di IA generati attraverso grossi set di dati presi dal web o dal pubblico, che spesso hanno fatto scandalo per quanto fossero diventati razzisti o sessisti. Un esempio è stato Tay, una chatbot di Twitter creata da Microsoft Research come parte di un esperimento di comprensione del linguaggio che ha fatto uso di tecniche di intelligenza artificiale. In meno di 24 ore dall’attivazione, Tay ha iniziato a divulgare messaggi razzisti e misantropi. Questo è accaduto perché Tay memorizzava ripetendo ciò che gli utenti le dicevano e alcuni di loro hanno approfittato di questa modalità per insegnarle messaggi offensivi. Microsoft ha dovuto cancellare i tweet di Tay e metterla offline. Considerando che l’accaduto risale all’anno 2016, possiamo dedurre quanto tempo sia servito affinché l’intelligenza artificiale diventasse più “educata”. Ciò che vorrei sottolineare è l’efficienza nel controllo e nella risoluzione di problemi relativa all’uso dell’IA, per questo penso che sia uno strumento che continuerà a cambiare, superando eventuali errori e incidenti di percorso. Ora si tratta di una tecnologia al centro dell’attenzione dei media e dei grossi investitori, con continue critiche, commenti, dissertazioni da parte dei primi, e un intervento quasi immediato in risposta da parte dei secondi, con un’evoluzione rapidissima che porta continuamente a correggere errori e migliorare le funzionalità. Nonostante questo, uno dei problemi più grossi che ancora affligge le IA attuali pare essere l’incapacità di distinguere il vero dal falso, di valutare la qualità delle proprie fonti, che si traduce spesso nel fornire informazioni errate. Per capire la gravità di questo problema, occorre pensare che uno degli utilizzi principali delle IA è al momento la ricerca di informazioni similmente a quanto fatto fino ad ora con i motori di ricerca online. La grossa differenza è che mentre questi ultimi forniscono informazioni in modo destrutturato, in genere come elenco di fonti da cui andare ad estrapolare il contenuto,, l’intelligenza artificiale risponde direttamente con le informazioni richieste. Questo rende molto più difficile capire se il risultato fornito è attendibile, ancor di più a causa del modo sempre più gentile ed eloquente in cui viene presentato. Parte di questo problema è insito nei principi base di funzionamento delle IA: imparando da grosse quantità di dati, le informazioni errate verranno considerate al pari di quelle corrette. Per questo motivo è necessario fare molta attenzione, prendendo sempre con spirito critico i contenuti forniti.

Una delle grandi paure scatenate dall’IA pare essere quella che possa sostituire gli umani, rendendo obsoleti o inutili arti e mestieri. Volendo procedere attraverso un esempio concreto, ho scelto di utilizzare chatGPT provando a fargli scrivere un semplicissimo articolo che descrivesse due argomenti e li collegasse tra loro. Devo dire che è stato molto più difficile di quanto pensassi. Di seguito vi riporterò alcuni dettagli premettendo che tale ricerca risale a più di un mese fa, e data l’evoluzione continua di cui ho parlato qui sopra la situazione attuale potrebbe essere diversa. Oltre a diversi problemi tecnici, dovuti ai tempi di risposta non proprio eccelsi e alla lunghezza delle risposte ricevute, il problema principale è stato riuscire a generare un articolo che avesse dei contenuti significativi.

Fornendo all’IA domande o indicazioni semplici si ottengono risposte semplici, allo stesso modo cercando di andare più nello specifico si ottengono risposte più articolate ma comunque circostanziate alla domanda fornita. Ad esempio, l’articolo che ho scritto volevo che partisse parlando della legge di Murphy, raccontando come non è applicabile alla vita quotidiana, per poi spiegare che nello sviluppo software è invece importante tenerne conto per minimizzare i bug. Chiedendo all’intelligenza artificiale semplicemente di scrivere un articolo sull’importanza dell’applicazione della legge di Murphy allo sviluppo software ottenevo sempre un testo strutturato nel seguente modo:

1. Descrizione della legge di Murphy (didascalica, tipo enciclopedia)

2. Una frase che diceva che la legge di Murphy è importante nello sviluppo software (più o meno nello stesso modo in cui l’avevo scritto nella domanda)

Questo indipendentemente da come ponevo la domanda e da quanto cercavo di essere specifico.

Per poter includere il fatto che la legge di Murphy non è sempre applicabile nel quotidiano l’ho dovuto chiedere esplicitamente, così come per spiegare che cosa sono i bug. Inoltre, volevo che si evidenziasse l’importanza di una legge apparentemente ‘drastica’ citando i risultati teorici che dimostrano come non sia possibile certificare che un software sia esente da errori.

Per ottenere una forma accettabile per un articolo ho dovuto fare diversi tentativi e poi procedere con diverse modifiche, soprattutto nei paragrafi di raccordo tra le parti descrittive.

L’articolo finale lo trovate già pubblicato qui. L’impressione generale che ne ho avuto è che se non si hanno in partenza delle idee molto precise su cosa scrivere, o non le si sa esprimere, è molto difficile ottenere qualcosa di originale e di buona qualità. Al contrario, se si hanno le idee chiare, l’uso dell’IA può facilitare il processo,  facendo sia da assistente per la ricerca di informazioni che da ‘ghost writer’, permettendo di scrivere alcuni testi in modo più veloce e snello, anche se lo stile di scrittura tende ad essere didascalico. Tornando al discorso iniziale relativo al timore che l’intelligenza artificiale possa sostituire alcuni mestieri, mi sento di affermare che gli scrittori non rientrano tra questi.

E tu cosa ne pensi?

per lab51 Marco Vassura

#lab51 #digitalinnovation #it #AI

Per visualizzare o aggiungere un commento, accedi

Altri articoli di lab51

Altre pagine consultate