Il nostro QI può governare ChatGPT?

Il nostro QI può governare ChatGPT?

Qualche giorno fa Microsoft ha annunciato il lancio del Nuovo Bing, integrato con #GPT–4 per “cercare, rispondere, chattare e creare” direttamente sul motore di ricerca. 

Una combinazione che permetterà a GPT–4 di sviluppare il proprio sistema di #deeplearning, sfruttando più dati e più calcoli “per creare modelli linguistici sempre più sofisticati e capaci”.


Ma come e perché siamo arrivati al punto di cedere il privilegio della capacità creativa e della lingua a delle macchine?

Siamo davvero certi che tutto ciò possa migliorare la nostra vita?

E soprattutto, quali #rischi corriamo nell’affidare ad una macchina la creazione di contenuti? 

Una macchina la cui capacità di discernimento è basata sulla concordanza di dati, senza tenere in minima considerazione la necessità di applicare un certo spirito critico e senso di opportunità anche di fronte alla concordanza di dati.


Facciamo un piccolo passo indietro.

A metà degli anni 80, lo psicologo e accademico statunitense J. R. Flynn analizza la variazione del quoziente intellettivo delle persone residenti in diversi Paesi del mondo, rilevando come questo valore sia cresciuto in maniera progressiva nel corso del Novecento. Tra il 1938 e il 1984, ad esempio, negli Stati uniti il QI medio delle persone è lievitato di 13 punti.

Con l’avvento del nuovo secolo però, la tendenza cambia di segno e si assiste al cosiddetto effetto Flynn inverso: il Quoziente Intellettivo medio comincia a calare e, secondo alcuni studiosi, la causa risiede nella diffusione su larga scala delle nuove tecnologie digitali.


Il motivo è piuttosto intuibile.

L’abitudine ad affrontare una buona parte dei nostri problemi ricorrendo a supporti informatici, ci sta impedendo di allenare la nostra capacità di #problemsolving

Non solo. Alcuni studi mettono in evidenza come la riduzione della conoscenza lessicale e il conseguente depauperamento della lingua stiano progressivamente portando alla sensibile diminuzione della capacità di elaborare e formulare un pensiero complesso.

A furia di semplificare costruzioni lessicali e pensieri, stiamo perdendo lo spirito critico.


L’obiezione a questa teoria è tanto scontata quando sacrosanta: le macchine, in fondo, sono create dalle persone, che saranno perciò sempre più intelligenti delle macchine. Vero! 

Il problema è che il numero di programmatori e sviluppatori è infinitesimale rispetto alla quantità di individui pronta ad interfacciarsi con i servizi offerti dalle Intelligenze artificiali. E sono proprio queste ultime, le più esposte al rischio di perdere le parole.


Le narrazioni classiche e contemporanee sono ricche di esempi su come i regimi antidemocratici abbiano sempre ostacolato la diffusione del pensiero critico, attraverso una sistematica riduzione della quantità e della qualità delle parole.

Siamo davvero pronti ad auto limitare la nostra capacità di pensiero, pregiudicandone l’efficacia, e consegnando il monopolio della “verità” ad un algoritmo dispotico?


#OpenAI, sviluppatore di GPT-4, ha lanciato la nuova tecnologia presentandola come una versione “più intelligente, più creativa e più sicura”. “GPT-4 – sottolinea l’azienda sul suo sito - ha l'82% in meno di probabilità di rispondere a richieste relative a contenuti non consentiti e il 40% in più di probabilità di produrre risposte fattuali rispetto a GPT-3.5”.

Tuttavia, #NewsGuard ha rilevato come ChatGPT-4 abbia generato racconti non rispondenti al vero su temi rilevanti più frequentemente e in modo più convincente rispetto a ChatGPT-3.5, utilizzando il format di articoli, thread di Twitter e sceneggiature. 

Se ChatGPT-3 era in grado di creare contenuti di disinformazione potenzialmente pericolosi, ChatGPT-4 è capace di fare ancor peggio.

Ma OpenAI si è premurata di inserire nelle clausole di utilizzo della chatbot, il divieto dell'uso dei suoi servizi per perpetrare “attività fraudolente o ingannevoli”, “comportamenti non autentici coordinati” e “disinformazione”. Un appello all’auto responsabilità, dunque.


A questo punto si apre un ulteriore dilemma: a chi appartiene il diritto d’autore per i contenuti creati da OpenAI e di conseguenza, a chi è attribuibile, l’eventuale responsabilità in caso di diffusione di #fakenews?

Le regole di utilizzo prevendono che i contenuti siano firmati dall’autore, il quale dovrebbe specificare anche che il contenuto è stato creato tramite AI. D’altro canto, però, per sua conformazione, GPT per creare risposte e contenuti utilizza una quantità mastodontica di dati, spesso coperti da diritto d’autore, senza la capacità di citarne la fonte; è non è remota la possibilità che lo stesso contenuto possa essere creato identico per più di un utente.

Ma l’idea di fondo è semplice: indicando che il contenuto presentato è il prodotto del lavodo di un’intelligenza artificiale, si ammette direttamente la sua fallibilità. Perché per un software è lecito avere un bug.


Insomma, ciò cui andiamo incontro è uno scenario nel quale, ogni analista di Open Source INTelligence, il cui Quoziente Intellettivo è in progressivo depauperamento, si troverà in una terra di nessuno a "lottare contro i mostri" creati da un’Intelligenza artificiale superiore. 

Questo analista, convinto di nuotare in uno specchio d’acqua cristallino, dovrà al contrario a fare i conti con uno stagno opaco senza confini. E sarà costretto a profondere sempre maggior impegno per destreggiarsi tra una mole infinita di dati, ma soprattutto una quantità smisurata di fonti, tutt’altro che sempre attendibili. 

E se è vero che uno dei compiti dell’AI è proprio quello di discernere tra fonti affidabili e non, cosa accadrà quando saranno le fonti affidabili, loro malgrado, a non saper più distinguer etra fake e contenuti reali? 


Il pensiero critico non è possibile senza pensiero. 

E il #pensiero ha bisogno di parole autentiche, che abbiano un significato e si portino dentro una responsabilità, senza la quale, la condivisione del sapere è immorale.

“…io speriamo che me la cavo” disse lo Spirito Critico.

Fabio Spotti

Group Security & Cyber Defence - Risk Prevention and Security Resilience presso A2A

1 anno

Brava Teresa

Alessandro Manfredini

Group Security & Cyber Defence presso a2a Chairperson presso AIPSA

1 anno

Brava Teresa! 👏👏👏

Gaetano Sanacore

Group Security&Cyber Defence OT Security Senior Manager - A2A S.p.A.

1 anno

Vista umanistica(involutiva) sull'attualissimo tema tecnologico "AI" molto interessante! Brava Teresa!👏

Andrea Chittaro

Executive Director Global Security & Cyber Defence - Snam spa

1 anno

Brava Teresa 👏

Per visualizzare o aggiungere un commento, accedi

Altri articoli di AIPSA Associazione Italiana Professionisti Security Aziendale

Altre pagine consultate