LA TRAPPOLA DELL'INTELLIGENZA ARTIFICIALE

LA TRAPPOLA DELL'INTELLIGENZA ARTIFICIALE

 

Tanto per cominciare oggi ho imparato che il termine “intelligenza artificiale” è sbagliato. Abusato. Fuorviante. Il vero termine che identifica il fenomeno mediatico di composizione di testi, musica, linee di codice di software nasce dal termine Large Language Media.

Si trattava di programmi che , utilizzando parole usate in larga media reperibili su documenti in rete , creava un nuovo testo che  era la media di testi simili per argomenti e contenuti. Non è chiaro ?

I software di Large Language Media lavoravano (e lavorano così) : voi gli chiedete di scrivere una lettera di presentazione per un colloquio di lavoro indicando alcune parole che riguardano voi stessi, la vostra formazione scolastica , le vostre esperienze: il software ricerca in rete altre centinaia di migliaia di lettere di presentazione per  colloqui d lavoro, magari cercando anche parole chiave estrapolate dai vostri suggerimenti o inserendo le vostre parole in un testo che è la “media” dei testi del genere trovati  e nasce una nuova lettera , la vostra, che contiene le vostre parole ed è inserita in un testo estrapolato come quello mediamente più probabile e/o più ripetitivo e siile trovato in rete e ottenuto confrontando miglia di lettere con lo stesso scopo.

E’ un testo artificiale , scritto da un computer che fa statistica , non crea nulla di nuovo , ma semplicemente paragona e analizza statisticamente altri testi , restituendo quindi una composizione che riporta semplicemente quella forma e contenuti  che, dall’esame statistico effettuato , sono risultati essere la concentrazione statistica più probabile fra tutti i dati esaminati.

Dai testi alla musica il passo è breve…e poi alle righe di software…poi alla grafica…. Il concetto in realtà è vecchio e l’ esplosione e popolarità dei nostri giorni , il fenomeno che è stato ribattezzato AI , “Intelligenza Artificiale” , è dovuta solo all’aumento delle possibilità di calcolo e velocità dei nostri computer.

Ma si può fare di più.  L’affascinante proposta dell’AI è quella di fornire non solo elaborati, ma anche elaborati basati su decisioni “automatiche” o proposte di decisione ; si tratta di algoritmi di calcolo, cioè sistemi di valutazione di dati e informazioni  basati su sequenze e nesting di verifiche del tipo “If – Then- Else” (se ho un certo dato faccio questa scelta, altrimenti faccio quest’altra scelta) o su citeri di valutazione a due vie True-False (vero-falso). Gli algoritmi di calcolo sono ovviamente utili se sono sostenuti da una potenza di elaborazioni dati (in termini di quantità e di velocità) elevata.

In realtà l’AI è già quindi presente ed utilizzata largamente da noi tutti anche oggi con sistemi di algoritmi che propongono scelte : il caso dei navigatori per auto è forse uno degli sviluppi più utilizzati e comuni.

Si tratta di uno strumento comodo e pratico che ha soppiantato l’uso delle mappe in cartaceo proprio per la facilità di poter controllare una versione digitale di una mappa, ma anche e soprattutto per la capacità di elaborare un percorso per raggiungere la meta.

I dati inseriti (mappe, tipologia di strada, vincoli sui limiti di velocità o sulla presenza di pedaggi o meno…) vengono utilizzati da un algoritmo che sceglie il miglior percorso secondo alcuni criteri impostati di default o personalizzabili , tipo appunto la selezione di escludere magari strade a pagamento di un pedaggio.  

E qui si innesca il dubbio.

L’accettabilità di un sistema di calcolo che ci propone una strada da seguire per raggiungere una destinazione è fortemente determinata dal fatto che la decisione finale sulla strada da percorrere effettivamente è lasciata a noi: siamo noi umani , dotati di intelligenza “naturale” che abbiamo il controllo del veicolo e  la libertà di scegliere se utilizzare tutte le indicazioni proposte per il percorso o meno.

Ma se il sistema di navigazione fosse applicato anche al controllo della guida , ci fideremmo ugualmente delle scelte fatte dall’algoritmo ?  In realtà anche questa applicazione esiste già ed è utilizzata su aerei e navi che sono guidati dai navigatori automatici, che intervengono direttamente sui comandi dell’ aeromobile o della nave correggendo i comandi al fine di mantenere la rotta. Niente di nuovo o di pericoloso …perché c’e’ sempre la possibilità di tornare al comando manuale e quindi a riprendere il controllo sulle decisioni automatiche.

Ma se questa opzione di “tornare ai comandi manuali” non ci fosse , ci sentiremmo ancora così sicuri di usare l’intelligenza artificiale del pilota automatico ?

Ecco la trappola dell’AI moderna: esiste la possibilità reale di controllarla ? Se si , chi può farlo ?

In realtà il controllore dell’AI non è mail il suo utilizzatore, ma il suo programmatore. L’utilizzatore può avere un set di parametri personalizzabili , ma la loro quantità e capacità di personalizzare l’algoritmo dipende per lo più da quello che è stato programmato e quindi dai criteri di programmazione .  Lo stesso accesso ai dati che permettono all’algoritmo di elaborare una soluzione non dipende da noi utilizzatori , ma  da chi programma e istruisce l’AI a ricercare tali dati in determinati data base.

Forse cominciate a rendervi conto che  le soluzioni proposte dall’AI secondo le domande che le avete posto potrebbero anche essere , in qualche modo , indirizzate e controllate da chi l’AI l’ha programmata.

Senza voler per forza di cosa cadere nel “complottismo” così facile in questi anni di diffusione dei social , può però farci pensare che l’AI è in qualche modo controllabile o , per lo meno, indirizzabile.

Si basa, come abbiamo detto, su valutazioni statistiche .

Non può utilizzare criteri etici, sociali o emotivi e istintuali …il che potrebbe essere un bene, ma anche un male.

L’AI può essere impostata a fare scelte che sono l’etica e la responsabilità di chi la programma o di chi finanzia i programmatori.

Questa è la trappola in cui si rischia di cadere .

Fidarsi di un sistema che fa scelte sulla base di algoritmi che non hanno la nostra stessa etica, esperienze giudizio, ma che potrebbero essere guidate da interessi diversi , commerciali, politici  e di controllo.

I sistemi di AI dovrebbero essere quindi “aperti” cioè completamente tracciabili e in grado di mostrare i criteri di scelta delle scelta delle soluzioni e lasciare all’utilizzatore umano la capacità di avere il controllo sulle fasi operative successive.

Il secondo rischio dell’AI è quello di non poter proporre nulla di creativo e realmente innovativo o qualificante.

In un epoca in cui il marketing , i social, il mondo fi lavoro ci chiede di essere unici nella nostra proposta professionale, l’AI si propone come uno strumento che , in realtà, rende solo più immediate e facili da raggiungere , soluzioni medie, standard , assolutamente non originali, ma velocissime.

Rischiamo di barattare l’efficienza ed efficacia di soluzioni personalizzate , con la velocità di soluzioni standard.

Il trionfo del “one fits all” , della “taglia unica” , dell’”omologato” nei confronti della forza dell’originalità, della creatività, della personalizzazione e del “fatto su misura”.

Questo comporterà sicuramente una perniciosa tendenza , dettata dall’illusione del facile “risparmio” , di utilizzare professionalità di livello più basso e più convenienti economicamente , perché l’illusione sarà quella che l’AI potrà fare le scelte intelligenti, elaborare strategie, sviluppare autonomamente progetti e soluzioni , prevedere andamenti di mercati …

Quindi potrebbe essere forte la tentazione di pensare che non serviranno più esperti di settore, consulenti, ingegneri, analisti…e poi di conseguenza potrebbero non servire più avvocati, commercialisti, medici ….

Mentre state leggendo queste righe che potrebbero sembrarvi catastrofiste sono già disponibili in internet servizi di consulenza legale, tributaria e anche medica basati su interfaccia con avvocati, commercialisti e medici virtuali che “rispondono” ai vostri quesiti attraverso l’accesso a data base giuridici o medici  e farmacologici.

Ecco una nuova possibile trappola : il medico virtuale potrebbe consigliarmi la pillola per il mal di testa di una casa farmaceutica rispetto ad un ‘altra in funzione di chi ha finanziato e programmato l’AI che sta dietro il medico virtuale.

Quindi la soluzione artificialmente intelligente proposta non sarà mai quella più efficace ed efficiente per l’utente, ma quella più redditizia per chi controlla l’AI.

Dobbiamo quindi rinunciare all’AI per evitare di cadere in queste trappole ?

No, sarebbe come se l’essere umano avesse rinunciato all’automobile o all’areoplano o all’elettricità pensando ai possibili incidenti che tali innovazioni avrebbero potuto generare (ed hanno fatto) dalla loro invenzione lungo il percorso di sviluppo fino ad oggi.

Non bisogna rinunciare all’innovazione, ma bisogna mantenerne il controllo e continuare a favorire l’inventiva e la creatività.

In pratica l’uomo deve poter avere la conoscenza per valutare il risultato del prodotto dell’AI e sceglierne l’uso , l’adeguatezza al contesto operativo e sociale, l’effettiva validità e applicabilità.

Tutto ciò si basa solo sulla conoscenza e sul sapere.

Possiamo valutare i prodotti dell’AI solo se conosciamo i principi fondamentali, le funzioni, le regole di calcolo che stanno alla base dei fenomeni sui quali magari abbiamo interpellato l’intelligenza artificiale.

Un ingegnere deve poter valutare il prodotto dell’AI costituito da un motore o da un ponte , basandosi sulle sue competenze e conoscenze, facendo un’analisi critica della soluzione proposta.

Un letterato o uno storico deve poter analizzare un testo proposto dall’AI , per valutarne criticamente la validità, l’originalità , la portata didattica.

In sostanza la conoscenza ed il sapere per utilizzare proficuamente l’AI devono comunque derivare da una formazione tradizionale, libera e autonoma, che nasce nelle scuole e nelle università.

Il sistema formativo tradizionale non può quindi essere bypassato in funzione della possibilità di accedere a informazioni mediate su internet; l’intelligenza artificiale da questo punto di vista diventa uno strumento formidabile per accelerare la condivisione delle informazioni  al ricerca , potendo svolgere miliardi di ricerche, confronti e analisi statistiche .

La capacità di utilizzare criticamente e analiticamente le applicazioni AI sarà quindi strategia nel prossimo futuro e quindi le professionalità attuali non devono scomparire,ma essere integrate e rafforzarsi con l’aiuto di questi nuovi strumenti.

Il difficile sarò quindi resistere alle tentazioni facili di adottare i programmi di intelligenza artificiale anche come “decisori” .

Già oggi i sistemi di AI asserviti a previsioni del tempo, trading,  analisi di mercato e marketing sono sviluppate con modelli matematici e algoritmi che sono in grado di prevedere con buona affidabilità andamenti di fenomeni naturali e macroeconomici , ma si è potuto anche appurare che talvolta tali previsioni sono state confutate da eventi diversi e,al momento in cui questi eventi si sono verificati , l’AI ha mostrato tutta la sua debolezza , risultando incapace di dare risposte nella gestione di un evento che  non aveva basi statistiche sufficienti.

Al centro , purtroppo o per fortuna , resta ancora all’uomo che deve essere in grado di elaborare soluzioni quando gli eventi si presentano senza una previsione statistica affidabile o quando le caratteristiche decisionali di un software di AI rischiano di non comprendere elementi di inclusione, social, garanzia di tutela della persona e della sua dignità.

Per non cadere in trappola occorre essere preparati e consapevoli che l’AI sarà uno strumento di gestione  e l’uso sarà fortemente condizionato dalla trasparenza reale dei programmatori e gestori  e dall’accesso reale alla sua configurabilità da parte degli utenti .

L’adozione di regolamentazioni imposte , come sta avvenendo adesso da parte di commissioni europee governative che stanno studiando leggi per controllare l’uso dell’AI, risulta , già in partenza , poco efficace:  in primis per le lungaggini burocratiche ce rallentano i lavori delle commissioni stesse e che rischiano di far partorire leggi e decreti già obsoleti rispetto allo scenario evolutivo ancor prima dell’applicazione.

In seconda battuta i regolamenti rischiano di essere inadeguati ad un fenomeno che è ancora in fase di veloce e profonda espansione .

Devo purtroppo concludere che non esiste oggi un sistema efficace di protezione contro un uso malevolo o fortemente orientato al profitto dei sistemi di intelligenza artificiale che, in realtà, già oggi prevedono funzionalità diverse fra le versioni free e quelle a pagamento, dimostrando che c’e’, ovviamente , un orientamento a fini di lucro e di concorrenza. C’e’da chiedersi già da subito quali possono essere le caratteristiche prestazionali che possono indicare come un’ Intelligenza artificiale possa essere migliore di un’altra …ma onestamente è una  domanda a cui è , per me, troppo difficile rispondere.

Non è nemmeno corretto e razionale combattere l’idea dell’AI : siamo di fronte al progresso , all’innovazione e sarebbe stupido opporsi basandosi sui rischi futuri e le conseguenze relative: negli anni 80 la paura di un conflitto termonucleare globale legata alla possibilità di un errore di calcolo nei sistemi di controllo degli armamenti nucleari delle superpotenze mondiali era reale …ma , fortunatamente, tale evento non si è verificato.

Quindi , forse , siamo in grado di controllare anche l’AI in queste situazioni.

Credo però che sia più complesso avere un controllo efficace nell’uso , ipotizzabile, di tutti i giorni, nelle routine di selezione del personale nelle aziende, nello sviluppo delle strategie di investimento per i piccoli investitori, nella proposizione  interessata di cure  e medicinali da parte di Big Pharma .

E’ il piccolo utilizzatore di AI  che rischia di esserne vittima inconsapevole.

A meno di non strutturarsi culturalmente e consapevolmente in modo da valutare i prodotti dell’intelligenza artificiale in modo critico e oggettivo , per confronto con dati di base affidabili e validati in modo oggettivo e imparziale , con riferimenti certi e consolidati da solide basi culturali.

L’Intelligenza artificiale è quindi uno strumento per un uso consapevole e maturo e non la scorciatoia per lo studente svogliato che vuole  svolgere rapidamente e senza fatica  il tema avuto come compito a scuola !

In conclusione l’intelligenza artificiale ci richiederà , per averne reali vantaggi, di sviluppare la nostra “naturale”  intelligenza, più di quanto abbiamo fatto finora : dobbiamo essere migliori  e più evoluti per usare strumenti migliori e più evoluti .

 

 

 

 

 

 

 


Raffaele Abruzzese

Progettista CAD presso MecVel

2 mesi

Ben detto, Ruggero

Domenico Tolomeo

Analista organizzativo appassionato al contesto PMI. Consulente aziendale per piccole e medie imprese ed organizzazioni professionali. Formatore

2 mesi

Grazie Ruggero, letto con cura. Mi ha sempre "incuriosito" la frase attestante "abbiamo chiesto all'intelligenza artificiale" ... l'oracolo di Delfi ha fatto potenti danni da secoli. Premessa la mia ignoranza in termini di AI, mi piace comunque il riferirsi ad una intelligenza naturale che abbia l'ultima parola. Intelligenza da coltivare e non da sostituire

Per visualizzare o aggiungere un commento, accedi

Altri articoli di Ruggero Romano

  • Non si può fare tutto al computer

    Non si può fare tutto al computer

    Noi generazione degli anni 60 siamo additati con disprezzo divertito e irriverenza come i "boomer". La generazione che…

    2 commenti
  • La festa del papà

    La festa del papà

    La Festa del Papà Essere un papà è una cosa difficile da fare. Non esistono corsi o insegnanti che ti insegnino a farlo.

  • Innovazione e... "Innovazionismo"

    Innovazione e... "Innovazionismo"

    Ieri ho contattato una cara amica che ha una azienda di comunicazioni per ragionare con lei ed un tecncio del suo staff…

    2 commenti
  • Le vittime della "Green Economy"

    Le vittime della "Green Economy"

    Uno stabilimento che impiegava circa 230 persone è in fase di chiusura. E' la green economy baby ! Che ci vuoi fare…

    3 commenti
  • Back to work :come gestire il dramma ?

    Back to work :come gestire il dramma ?

    Il ritorno al lavoro dopo le vacanze è un momento estremamente difficile e "pericoloso". Nel momento in cui si riprende…

  • Libertà di scelta ?

    Libertà di scelta ?

    La filosofia può soggiogare gli uomini ? Si, solo quelli che non la conoscono ! Ho sempre amato lo studio della…

  • "Money for nothing " ovvero "Le persone non si comprano"

    "Money for nothing " ovvero "Le persone non si comprano"

    Nel mondo del lavoro si sta affermando un modo di pensare terribile, quasi aberrante. Si tende a confondere il…

  • I cattivi genitori (ovvero "come i clienti non fanno crescere i loro fornitori")

    I cattivi genitori (ovvero "come i clienti non fanno crescere i loro fornitori")

    Non volevo scrivere questo articolo. Davvero non avrei mai voluto farlo,ma ci sono state almeno 3 importanti esperienze…

  • La ricerca del perfetto collaboratore

    La ricerca del perfetto collaboratore

    Il mondo del lavoro di oggi è in fermento. Dopo i lockdown del covid, lo smartworking, la crisi le aziende si trovano…

    7 commenti
  • L'auto puramente elettrica e la progettazione ottimistica

    L'auto puramente elettrica e la progettazione ottimistica

    "Se qualcosa può andare male , lo farà" è una delle più famose leggi di Murphy. Ed anche una di quelle leggi che gli…

Altre pagine consultate