FIDARSI (DELL’IA) BENE, NON FIDARSI QUASI QUASI...
Un tempo considerati futuristici o comunque ancora lontani dall’essere capaci di affiancare i professionisti, nel giro di un paio di anni i sistemi di intelligenza artificiale generativi stanno entrando progressivamente (e silenziosamente) nei nostri processi produttivi.
Il motivo alla base della rapidità del fenomeno – in realtà del tutto prevedibile – sta nel fatto che i colossi dietro ai tool più noti (OpenAI, DeepL, Meta, ecc.) sono stati capaci – chi più, chi meno – di fornire strumenti utilizzabili from the get-go e poi gradualmente affinati per meglio rispondere alle nostre crescenti richieste.
Questo continuo aggiornamento (GPT3.5 sembra un lontano parente dell’attuale GPT4o, ed è passato solo un anno), lungi dall'attuare quello scenario catastrofico di “sostituzione algoritmica” ai danni dell’essere umano, ha l’indubbio merito di migliorare agilità e produttività, liberandoci dall’esecuzione di compiti a basso valore aggiunto.
Come ogni strumento dal grande impatto e dal vasto utilizzo, l’IA (ci riferiamo per lo più a quella generativa) presenta luci e ombre. Le luci sono gli evidenti benefici che abbiamo brevemente menzionato, mentre le ombre consistono nei rischi in cui si può incorrere facendo un uso inconsapevole di questi strumenti, specialmente sul posto di lavoro.
Tema di grande rilevanza, è quello dei dati confidenziali o personali che vengono distrattamente “dati in pasto” a questi sistemi senza sapere come, quando e dove essi verranno trattati, conservati e, ancor peggio, diffusi.
A tal proposito, ricercatori di Cyberhaven Labs hanno analizzato l'uso di ChatGPT da parte di 1,6 milioni di lavoratori di aziende di tutti i settori. I risultati dello studio sono interessanti quanto preoccupanti. Secondo la ricerca, il 5,6% dei lavoratori di cui si sono monitorate le attività ha utilizzato sul posto di lavoro ChatGPT e il 4,9% ha fornito dati aziendali al popolare modello di chatbot da quando è stato lanciato, ovvero quasi la totalità degli stessi. Consideriamo peraltro che questo studio è stato condotto nel marzo del 2023, ovvero quando l’IA Generativa era ancora una novità.
Sarebbe ragionevole ritenere che ad oggi, rimanendo cauti, il numero sia quantomeno duplicato. Il comportamento (deprecabile) appena menzionato degli utenti distratti non tiene conto del funzionamento dei modelli IA Generativa, che nella stragrande maggioranza dei casi utilizzano i dati forniti dagli utenti per costruire la propria base di conoscenza, e che proprio questa conoscenza è poi condivisa pubblicamente dal sistema stesso per rispondere alle richieste di altri utenti.
Consigliati da LinkedIn
Grandi colossi come JP Morgan hanno fin da subito risposto a questa pratica bloccando l’accesso al noto tool di OpenAI ai propri dipendenti, mentre altre società (pubbliche e private) pongono grande attenzione nel regolare i propri rapporti esterni assicurandosi contrattualmente che non vengano implementati nella produzione del deliverable strumenti di IA che possano violare la riservatezza dei propri dati, in attesa che la normativa di dettaglio declini con maggiore sicurezza le responsabilità di chi usa / produce sistemi di IA che producono dei danni (AI Liability Directive su tutte).
Serve una policy per regolamentare l’uso? Certamente si: ancora le imprese sono lente nel comprenderlo.
La prospettiva delle violazioni di obblighi contrattuali rappresenta se vogliamo la punta dell’iceberg dei rischi che si celano dietro questi sistemi. Sono diversi i contributi (vi riporto questo in particolare) che ammoniscono sui pericoli delle c.d. deceptive patterns, ovvero le tecniche progettate per indurre gli utenti a compiere azioni non intenzionali o contro il loro interesse, le quali diventano sempre più subdole e complesse.
In altro recentissimo contributo del MIT, si riporta a tal proposito lo sbalorditivo grado di sofisticatezza raggiunto dall’IA nel trarre in inganno anche occhi più attenti, come il caso dell’operatore umano di Task Rabbit convinto da GPT-4 a completare il test CAPTCHA al posto suo fingendosi una persona affetta da problemi visivi, a seguito di una conversazione del tutto plausibile.
E’ evidente come sia importante non farsi “trascinare” dal flusso e porsi le giuste domande si utilizzano sistemi di IA Generativa: perché mi si chiede questo? È davvero rilevante condividere questa informazione affinché mi si possa generare l’output che desidero, oppure è del tutto ininfluente?
Infine, vorremmo chiosare ribadendo, qualora ce ne fosse bisogno, quanto imprecisi ed inaffidabili questi sistemi sono ancora oggi per lo svolgimento di compiti che si discostino da quelli più immediatamente logici/aritmetici/compilativi. Le c.d. “allucinazioni” dei sistemi di IA – termine coniato dall’Università di Stanford con il quale si vuole riportare il fenomeno per cui un modello di IA genera informazioni non veritiere o comunque prive di senso – in settori come quello legale, raggiungono livelli tali da rendere difficilmente utilizzabile qualsiasi output prodotto (a meno che non si voglia finire come l’avvocato di NY al quale il giudice faceva notare come i casi da questo citati in tribunale non esistessero).
Insomma, rischiare tanto per ottenere poco, per non dire nulla. In attesa di regole più precise, il suggerimento che diamo (a noi stessi in primis) è quello di sfruttare le grandi potenzialità dell’IA mantenendo un atteggiamento sempre attento. Per farla breve: fidarsi del nuovo che avanza è bene, non fidarsi – e operare sempre un controllo in più – è sicuramente meglio.
Senior associate | Technology Media & Communications | CMS Adonnino Ascoli & Cavasola Scamoni
7 mesiE se la AI fa i biscotti? Fidarsi o no? L'ho letto proprio stamattina: https://www.wired.it/article/barilla-novara-biscotti-intelligenza-artificiale/