Amnesia d'impresa

Amnesia d'impresa

Che cos'è l'amnesia d'impresa?

È lo stato in cui si trova un'azienda o un'organizzazione quando non ha facile accesso a conoscenze consolidate su sé stessa o su ciò che genera.

Facciamo qualche esempio.

Una banca d'investimento potrebbe non sapere come sfruttare le migliaia di pagine di testi di cui dispone contenenti strategie di investimento, ricerche di mercato e pareri degli analisti, come nel caso di.

Uno studio legale potrebbe non riuscire a passare al setaccio migliaia di contratti e consulenze legali, alla ricerca di quello giusto per risolvere il problema di un cliente.

Un'azienda che produce autoveicoli potrebbe non ricordare come progettare un pezzo meccanico che veniva prodotto anni prima, poiché gli ingegneri che lo avevano creato sono tutti andati in pensione.

L'amnesia d'impresa può manifestarsi anche con la difficoltà a "ricordare" le domande più frequenti che vengono poste all'assistenza clienti, o le politiche di gestione delle risorse umane o persino le conoscenze su cui si basano la propria cultura e i propri valori.

Quindi? che fare?

Parlo spesso degli strumenti di gestione della conoscenza e di come possano aiutare le imprese ad essere più efficienti, ma stanno comparendo nuove soluzioni legate all'intelligenza artificiale che mi lasciano sbalordito. Vediamo allora come questa tecnologia può essere utilizzata per superare il problema dell'amnesia d'impresa.

Avrete senz'altro sentito parlare di ChatGPT. È un modello linguistico basato su un algoritmo di elaborazione del linguaggio naturale e addestrato su un vasto corpus di testi per poter generare risposte coerenti e comprensibili a domande o frasi di input. In gergo si tratta di un large language model, abbreviato con LLM.

La maggior parte delle persone pensa a #ChatGPT come a un sito web in cui fare domande al bot del tipo "scrivimi una poesia sulla primavera usando solo parole che iniziano con la lettera B", giusto per divertimento. Oppure come a quel sito in cui gli studenti svogliati si fanno scrivere il tema per la scuola.

Tenetevi forte. ChatGPT non è quello.

I modelli linguistici, insieme ai database vettoriali (vectors), gli agenti (agents) e altri strumenti (tools) su cui si basano i sistemi di intelligenza artificiale sono i mattoni con cui costruire la "memoria", o meglio ancora il "cervello d'impresa", che può essere interrogata tramite il linguaggio naturale, ad esempio via chat.

In breve, è possibile costruire una memoria a lungo termine per la propria organizzazione.

Vi è mai capitato, mentre state scrivendo un documento, di desiderare di poter schioccare le dita e avere immediatamente l'informazione che vi manca, il file più appropriato, senza dover cercare in infinite directory o database di cianfrusaglie irrilevanti (almeno per la vostra ricerca)?

O di aver bisogno della risposta a una domanda del supporto inviata via e-mail, ma che è persa nel buco nero del server di posta elettronica aziendale?

Ecco, allora avete sognato quello che sto per descrivervi.

Creare il "cervello aziendale"

Per sfruttare appieno la potenza di ChatGPT, e di altri modelli linguistici, è necessario aprire il cofano e armeggiare un po' con i meccanismi interni. È lì che troverete il vero potenziale dell'intelligenza artificiale!

I modelli che possiamo trovare in cloud, come OpenAI (GPT), Cohere, Anthropic (con Claude) e compagni, un accesso facilitato agli endpoint del funzionamento interno, ossia le API, Application Programming Interfaces, e sono già stati addestrati con una vastità di informazioni aggiornate fino ad una certa data. Nel caso di ChatGPT la sua conoscenza arriva a giugno 2021. Quindi come possono essere utili per la vostra azienda se la loro banca delle conoscenze è chiusa?

Il segreto sta nell'uso degli "embeddings".

Embeddings, ovvero le sinapsi del cervello

Gli embeddings sono misure numeriche contenute in vettori multidimensionali che determinano la correlazione tra stringhe di testo.

Possiamo pensare agli embeddings come alle sinapsi dei modelli linguistici.

"Mi chiamo Giorgio" e "il mio nome è Giorgio" sono frasi semanticamente correlate tra loro e intercambiabili, anche se sono costruite con parole diverse.

Il bello è che se convertiamo entrambe le frasi in embedding, appaiono piuttosto vicine dal punto di vista della correlazione.

Ciò significa che è possibile effettuare una "ricerca semantica" sugli embeddings utilizzando il linguaggio naturale per trovare un risultato corrispondente senza che sia necessario usare le stesse identiche parole usate nel documento di origine, come avviene con gli attuali motori di ricerca.

Gli embeddings sono tipicamente utilizzati nei seguenti casi:

  • Ricerca, in cui i risultati sono classificati in base alla pertinenza rispetto a una stringa di query
  • Clustering, per raggruppare stringhe di testo in base alla somiglianza
  • Raccomandazioni, vengono raccomandati elementi con stringhe di testo correlate
  • Rilevamento di anomalie, in cui vengono identificati i valori che si discostano dalla normalità, con scarsa correlazione
  • Misurazione della diversità, per analizzate le distribuzioni di similarità
  • Classificazione, le stringhe di testo vengono classificate in base all'etichetta più simile.

Immaginiamo di avere migliaia di pagine di contratti legali, documentazione di sistema, domande e risposte di supporto, CV di candidati o altro, e di passare il tutto attraverso un'API di embedding (ad esempio text-embedding-ada-002 di OpenAI). La risposta sarà costituita da vettori di dati, che possono essere estratti, salvati e utilizzati in seguito per ricerche e altre azioni.

Gli embeddings possono poi essere memorizzati in un database vettoriale, come ad esempio Pinecone, che diventa così la memoria aziendale a lungo termine.

I database vettoriali consentono di memorizzare miliardi di embedding vettoriali che possono poi essere utilizzati per effettuare ricerche ultraveloci, utilizzando una query, in linguaggio comune, che restituirà risultati basati sul significato piuttosto che su semplici parole chiave.

Immaginate che il vostro database vettoriale contenga gli embedding di tutte le offerte ai clienti, i contratti clienti, i rapporti di ricerca, le analisi di mercato, i rapporti di chiamata, le domande e risposte dell'assistenza, ecc…

Quanto tempo potreste risparmiare -o la vostra azienda potrebbe risparmiare- grazie a un sistema che non dimentica e che consente un accesso quasi istantaneo alla sua "memoria" utilizzando query in linguaggio naturale?

In sostanza, tutti all'interno dell'organizzazione avranno accesso in qualunque momento alle conoscenze e all'esperienza delle persone più preparate, istantaneamente. Non è rivoluzionario?

La banca d'investimento statunitense Morgan Stanley ha recentemente utilizzato GPT-4 di OpenAI per organizzare la propria libreria di contenuti, costituita da centinaia di migliaia di pagine di conoscenze e approfondimenti in gran parte in formato PDF, che comprendono strategie di investimento, ricerche e commenti sul mercato e approfondimenti degli analisti.

Oltre i limiti dei modelli linguistici

Ma non è tutto.

Come sappiamo i modelli linguistici hanno dei limiti piuttosto importanti:

  • non sono bravi in matematica e logica
  • hanno allucinazioni: ossia quando non conoscono la risposta… se la inventano e
  • non sono aggiornati, i loro modelli di allenamento arrivano fino ad un determinato momento e non hanno accesso ad internet per aggiornarsi.

L'utilizzo dei LLM da soli, quindi, spesso non è sufficiente per creare applicazioni che siano davvero utili per l'azienda: il vero cambio di marcia si ottiene quando si è in grado di combinarli con altri strumenti di calcolo, di ragionamento e di conoscenza.

Ad esempio è possibile collegare i risultati di un LLM con quelli di un altro o ad agenti e tools che forniscono capacità di ragionamento, creando un'infrastruttura cognitiva basata sulle informazioni relative all'azienda e al mondo reale.

Quando analizzano la richiesta dell'utente, gli agenti utilizzano un LLM per capire quali azioni devono intraprendere e in quale ordine.

Al contrario degli LLM, gli agenti hanno la capacità di interagire con il mondo. Ad esempio possono lanciare comandi sul computer, fare ricerche su internet, usare il motore di ricerca wolfram alpha per rispondere a domande su matematica, scienza, tecnologia, cultura, società e vita quotidiana, accedere a siti web, ottenere notizie o informazioni meteo in tempo reale o, ancora, accedere alle informazioni di Wikipedia per rispondere a domande generali su persone, luoghi, aziende, eventi storici o altri argomenti.

No alt text provided for this image


Insomma, se permettiamo ai Large Language Models di superare i propri limiti cognitivi con l'utilizzo degli agenti e dei database vettoriali con i dati aziendali privati, non stiamo solo credendo una "memoria d'impresa", ma un vero e proprio "cervello" che ha la capacità di mettere a disposizione tutta la conoscenza disponibile per fare le cose meglio, più velocemente e in maniera più efficiente.

La cosa incredibile è che tutto ciò può essere fatto già da oggi!



Credit: questo articolo è stato tratto ed ispirato dall'articolo "How to Build Long-term Corporate Memory for Your Organisation Using ChatGPT" di Mr Newq

Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate