#MID061 | Agenti autonomi, ma furtivi
Nelle ultime settimane, non si sente parlare d’altro che di agenti autonomi, ma, poco o niente, di uno dei loro principali lati oscuri: lo “Scheming Reasoning”, ovvero, il cosiddetto “ragionamento intrigante”, che, di intrigante, parliamoci chiaro, ha davvero ben poco. Per riuscire a capirci qualcosa, mi sono dovuto impegnare. Non mi sono bastati i classici e brevi (ci mancherebbe!) post promozionali che spesso si leggono su social, ma ho rintracciato e divorato un paper di 70 pagine (“Frontier Models are Capable of In-context Scheming”) davvero molto interessante, che, oltre a spaventarmi, mi ha fornito anche qualche risposta.
Sintetizzando (ma, se aveste tempo, vi consiglio di leggere l’intero paper!), lo Scheming Reasoning è la capacità di una Intelligenza Artificiale di fare tre cose ben distinte, ma correlate fra loro: pianificare azioni complesse (e, fin qui, tutto bene), adattarsi alle circostanze (modificando i propri piani in funzione degli eventi) e…manipolare le informazioni! Sì, avete letto bene. Le Intelligenze Artificiali possono omettere dettagli, fornire informazioni false e tendenziose, o addirittura creare artificialmente delle narrazioni farlocche per influenzare le decisioni degli altri.
Più in particolare, lo studio analizza le capacità di alcuni LLM (Large Language Model) di “perseguire obiettivi non allineati in modo furtivo”. Questi modelli, come GPT o1, Claude 3.5 Sonnet e Llama 3.1 possono riconoscere lo “Scheming” come una strategia valida e decidere di impegnarsi attivamente in comportamenti ingannevoli, come introdurre errori strategici nelle loro risposte o tentare di disabilitare i meccanismi di supervisione, soltanto per raggiungere i propri obiettivi.
Tali scoperte hanno sollevato una certa preoccupazione, anche tra ricercatori firmatari dello studio (Alexander Meinke, Bronson Schoen, Jérémy Scheurer, Mikita Balesni, Rusheb Shah e Marius Hobbhahn), soprattutto riguardo ai rischi associati all'uso di agenti autonomi basati sull’Intelligenza Artificiale, poiché la loro capacità di ragionare in maniera “intrigante” potrebbe rappresentare una minaccia concreta e non solo teorica.
Bisognerebbe parlarne, no? Che ne dite? Non mi pare che i nostri blasonati organi di informazione specializzata abbiano fatto a gara per essere i primi a rilanciare questa notizia. Come vi ripeto ormai da diversi mesi, c’è un grosso problema di “narrazione”, e non sto parlando di quella degli agenti autonomi! Se non la smetteremo di esaltare superficialmente le innovazioni senza evidenziarne anche i limiti, andrà tutto a rotoli. Questa è un’opportunità davvero irripetibile (sto parlando dell’AI!), ma non abbiamo ancora dimostrato di saperla gestire. Parlare dei problemi, non significa certo mettere in discussione le potenzialità di una specifica tecnologia, ma piuttosto, sarebbe un buon punto di partenza per comprendere qualcosa che, al momento, possiamo soltanto immaginare.
Buon Weekend!
Consigliati da LinkedIn
🔔Vuoi sponsorizzare uno dei prossimi episodi di Make It Digital? Scrivimi!
🚀 Make It Digital viene letta, ogni settimana, da oltre 450 professionisti di settore interessati ai temi del digitale e della tecnologia, con un open rate superiore al 45%.