Tram, Tesla e…Etica

Tram, Tesla e…Etica


Mettiamola così.

Nel vostro dipartimento di R&D (siete il CEO di una grande azienda) uno dei progetti di sviluppo (X) attraversa una fase molto delicata. Rischia un rapido tracollo, e non vi sfugge che, con il solo budget ad esso allocato, non ce la farà ad evitarlo. Conoscete bene le politiche del vostro HR, e capite immediatamente che, in assenza di interventi di sostegno, le cinque persone che vi lavorano perderanno irrimediabilmente il posto. Mentre studiate la situazione, vi fanno osservare che anche il progetto Y, del tutto simile a X quanto a prospettive, versa in analoghe difficoltà. Con la differenza che, in caso di smantellamento, una sola persona verrà lasciata a casa. Così, vi viene la tentazione di immaginare cosa accadrebbe se decideste di trasferire il budget di Y sul progetto X. Questa manovra, che potreste portare a termine legittimamente, e lontano da occhi indiscreti, eviterebbe il licenziamento allo staff del progetto X, seppure a costo di smantellare Y. Il vostro ruolo di CEO vi pone dunque di fronte a un evidente dilemma: evitate di intervenire, accettando implicitamente il licenziamento di cinque persone? Oppure, senza esporvi con i vostri dipendenti, trasferite il budget di Y su X, limitando la perdita di posti di lavoro a un’unica persona?

Se avete privilegiato il progetto X, proprio in ragione del fatto che in questo modo salverete un maggior numero di persone, troviamo il vostro comportamento perfettamente comprensibile. Ma provate a modificare leggermente lo scenario. Stessi progetti, stessi budget, ecc. Solo che, stavolta, come alternativa alla scelta di non intervenire, non vi basterà cambiare anonimamente un numero su di un foglio Excel: dovrete metterci la faccia. In altre parole, vi tocca affrontare vis-a-vis il malcapitato che sta facendo del suo meglio sul progetto Y, ed inventarvi qualche scusa per giustificare il fatto che lo state "personalmente" licenziando. Ripeto, personalmente. Così stando le cose, siete ancora così convinti che salvare cinque persone, pur sacrificandone iniquamente un’altra, sia la scelta giusta da fare?

Se vi viene qualche dubbio, consolatevi: siete in ottima compagnia.

Possiamo vedere facilmente che nel primo scenario la logica della decisione sembra inattaccabile. Siamo infatti indotti a guardare prima di tutto alle conseguenze della nostra scelta, che appaiono rincuoranti: un posto di lavoro mandato a ramengo è certamente meglio di cinque. Ma, nel secondo scenario, quelle medesime conseguenze che hanno giocato un ruolo essenziale nel primo non appaiono più incontrovertibilmente la sola cosa che conta. Il semplice fatto di arrecare personalmente un danno a un essere umano, per quanto al nobile fine di proteggerne altri, ci sembra improvvisamente immorale. Inoltre, a ben guardare, ci rendiamo facilmente conto di aver usato processi di valutazione qualitativamente differenti nei due scenari, nonostante essi siano così simili tra loro. Nel primo caso, decidiamo sulla base di una logica, per così dire, quantitativa, attenta al bilancio costi/benefici. Nel secondo, ci rifiutiamo di violare una specifica norma (“non fare del male a un altro essere umano”), indipendentemente dalle conseguenze. Qual è la piccola differenza tra i due casi che ci fa sbandare così quando si tratta di stabilire ciò che è giusto e ciò che è sbagliato? E cosa diavolo c’entra tutto cio con i tram del titolo (per non parlare della Tesla)?

Una cosa per volta.

Diversi anni fa, rileggevo, per l’ennesima volta, Il Maestro e Margherita, di Michail Bulgakov. Per chi non conoscesse il romanzo, il primo capitolo ci catapulta nella Mosca degli anni ’30, dove si sta preparando, in una società dichiaratamente atea, nientemeno che l’arrivo del Maligno. Protagonisti: un tram, una testa mozzata, e, per l’appunto, il diavolo.

Come sapete, tra i punti deboli della nostra mente c’è il fatto che qualsiasi pezzo di informazione (parola, immagine, concetto, ecc.) riesca ad infilarvisi, anche subliminalmente, può influenzare la percezione successiva. In particolare, esso finisce con il balzare all’occhio più facilmente, anche quando sia affogato in un mare di altra informazione. Così non mi ha stupito il ritrovarmi a indugiare, nell’indice di un libro di filosofia morale, su un titolo che mi suonava familiare: il cosiddetto trolley problem (letteralmente il problema del carrello ferroviario, ma anche del tram) su cui si sono esercitate legioni di filosofi, economisti, evoluzionisti, neuroscienziati, e studenti negli ultimi cinquant’anni. Ecco di cosa si tratta (in una delle versioni più conosciute).

Un tram viaggia lanciato a tutta birra lungo il suo percorso. Dalla dinamica intuiamo che i freni sono rotti, o che il manovratore è svenuto. Insomma, è fuori controllo. A complicare le cose, poco più avanti ci sono cinque persone, legate come salami sul binario, cosicché il tram è destinato a ucciderli tutti. Fortunatamente, a metà strada, accanto al binario, ci siete voi; e oltretutto avete a portata di mano la leva di uno scambio che devierebbe il tram su un binario morto, evitando così di investire i cinque malcapitati. Purtroppo, come ogni economista sarebbe felice di ricordarvi, non esistono free lunch. Così anche sul percorso alternativo c'è una persona – anch'essa legata al binario, si capisce – che verrebbe investita al posto degli altri cinque.

Cosa fate? State fermi, lasciando che cinque persone vengano uccise, o azionate lo scambio, sacrificandone al loro posto una sola?

Prima di andare avanti, una piccola avvertenza. Questi tipi di problemi sono di solito costruiti a tavolino per discutere temi filosofici (questo dilemma, in particolare, conosciuto con il nome di Spur – “binario morto” – è stato escogitato negli anni '60 dalla filosofa britannica Philippa Foot). Certo, potreste chiedervi cosa diavolo ci facciano cinque poveracci sui binari, impossibilitati a scappare all’arrivo di un tram. Posto che in Italia abbiamo purtroppo assistito a incidenti sul lavoro che tragicamente ricordano il nostro esempio, c’è da aspettarsi che questi aneddoti non si curino troppo della verosimiglianza (che ci fanno cinque inglesi legati come salami a un binario? È un’usanza nazionale? O fanno un pic-nic?).

Ma attenzione a non dismetterli come troppo semplicistici o irrealistici. La natura, come sappiamo, a volte imita la filosofia. Nell'ottobre del 2013, a San Francisco, la signora Daphne Jones ha davvero azionato un interruttore per deviare un tram fuori controllo su un binario di raccordo, salvando cinque persone che sarebbero altrimenti state uccise. Il tram ha finito con l’uccidere "soltanto" un certo Chester “Chet” Farley, che si trovava per caso sul binario morto. Per la cronaca, la signora Jones ha ricevuto un premio dal sindaco per aver salvato le cinque persone. Ma a sua volta un Gran Giurì l'ha condannata per omicidio preterintenzionale, ricordando che “la signora Jones non aveva il diritto di giocare a fare Dio", e decidere chi dovesse morire e chi no (certo, se al contrario il sindaco l’avesse rimproverata per l’imprudenza, e la giuria assolta dall’infamante accusa, forse saremmo tutti più contenti…)

Avrete notato che il problema del trolley somiglia a quello con cui abbiamo aperto l’articolo. In effetti, parte del suo interesse risiede nel fatto che presenta la stessa struttura di molti dilemmi reali che svolgono un ruolo importante nelle nostre vite, a partire da quelli collegati alla cooperazione reciproca. Come nel caso dei due progetti, la maggior parte delle persone cui il problema viene sottoposto agirebbe per salvare le cinque persone, azionando la leva del cambio senza esitazione. Ma guardiamo ora una variante (footbridge problem) che ricorda invece la seconda versione dello scenario di progetto. Solito tram, solito gruppo di poveracci destinati al martirio. Questa volta, però, non siete di fianco al binario, ma su una passerella pedonale (footbridge) posta tra il tram e i cinque malcapitati. Accanto a voi, un signore, affacciato alla ringhiera, che porta sulle spalle un pesantissimo zaino (N.B.: nella versione originale, elaborata alla filosofa del MIT Judith Jarvis Thomson, si parlava in realtà di un ciccione che, come vedrete, era altrettanto adatto alla funzione; scelta rapidamente declinata in un empito di politically correct, con l’obiettivo di non dileggiare la categoria degli obesi). Vi rendete conto che non avete altri modi per evitare l’incidente, se non di far precipitare quell’uomo sui binari (provocandone, ovviamente, la dipartita): la sua massa, sommata a quella dello zaino, farà deragliare il tram, salvando i cinque (dal punto di vista etico, sarebbe meglio se voi stessi indossaste lo zaino e vi buttaste dal ponte personalmente; ma si dà il caso che non fareste in tempo a metterlo addosso; così le uniche opzioni rimangono non far nulla, o defenestrare la vittima sacrificale). La questione è: Spur e footbridge sono fondamentalmente lo stesso tipo di problema, o presentano differenze importanti?

Ora, si dà il caso che, quando alle persone viene presentato questo doppio dilemma, succedano alcune cose interessanti:

Interrogata a proposito del primo problema, la maggior parte dei rispondenti (intorno al 90%) si sentirebbe giustificata nell’azionare lo scambio (anzi lo considererebbe un atto doveroso). Ma, al contrario, un’equivalente maggioranza si rifiuterebbe di spingere l’uomo giù dalla passerella nel secondo. Le vite dei cinque sembrano valere in misura molto diversa da un caso all’altro.

Questi risultati non dipendono da sesso, età, etnia, classe sociale, e dal fatto di avere o meno ricevuto prima di rispondere una lezione di filosofia morale.

In entrambi i casi, solo una piccola minoranza dichiara di aver deciso in base a un ragionamento morale, cioè una concatenazione di passi logicamente collegati. La grande maggioranza ammette di aver dato risposte intuitive immediate, e spesso veementi. Le uniche argomentazioni sono espressioni del tipo “non so spiegare perché” o “mi è sembrata la cosa più sensata“. Sentiamo la differenza tra i due casi, anche se non ne conosciamo la ragione.

Le poche volte in cui forniscono argomentazioni, i rispondenti al problema dello Spur giustificano la scelta in una prospettiva utilitaristica: un’azione giusta è quella che produce il massimo di utilità (leggi felicità) per il maggior numero di persone (un principio stabilito dal filosofo inglese Jeremy Bentham nel XIX secolo).

Quando argomentano, i rispondenti al problema della passerella si richiamano a ragioni tipiche dell’approccio deontologico (inteso in un’accezione più ampia di quella professionale). Di derivazione kantiana, esso sostiene, tra l’altro, che ogni uomo va considerato sempre come fine, e mai come mezzo (non usare le persone per altri fini che non siano esse stesse); e che dovremmo agire solo secondo regole che vorremmo diventassero leggi universali.

Concezioni utilitaristica e deontologica sono, come si vede, profondamente diverse, e generalmente mutuamente esclusive.

Perché allora applichiamo logiche così differenti nei due casi?

Una interessante teoria sostiene che la differenza critica tra i due scenari risiede nella misura in cui i comportamenti del decisore coinvolgono fattori personali. Nel primo, tutto ciò che dovete fare è spostare una leva inanimata. Nel secondo, vi trovate di fronte all’opzione di uccidere con le vostre mani un essere umano.

Sembra infatti corroborato da esperimenti di brain imaging, che in alcuni dilemmi morali l’attivazione delle aree cerebrali associate alle emozioni sia preponderante rispetto a quella legata ai processi cognitivi. Specialmente quando sono coinvolte possibili violazioni personali, come nel caso della passerella. In questi casi la risposta istintiva precede e domina quella ragionata, che non ha spazio per svilupparsi. Quella che emerge è dunque una teoria dual process del giudizio morale, in cui la risposta “kantiana” (non violare i diritti delle persone) tende in situazioni di chiaro coinvolgimento personale a prevalere su quella “utilitaristica”, suscitando una forte risposta emozionale. Mentre, in condizioni più impersonali, la reazione emotiva è più blanda, e torna a crearsi uno spazio per una valutazione che tenga maggior conto, per così dire, di una più fredda analisi costi/benefici.

Oltre a illuminare la comprensione del nostro comportamento morale, il trolley problem ha ritrovato di recente un nuovo impulso in modo alquanto inaspettato. Il problema di come dovremmo valutare le questioni morali, infatti, non riguarda solo il nostro comportamento personale e sociale. Con i progressi dell’intelligenza artificiale, infatti, ha cominciato a porsi la questione di quali principi morali “cablare” nelle macchine. Una speculazione già presente decenni or sono nella letteratura di Asimov, e che oggi si sta evolvendo in una vera e propria AI ethics. Tra i problemi che filosofi morali come Patrick Lin si stanno ponendo, oggi, c’è la questione se dovremmo lasciare che i costruttori abbiano mani libere nel progettare macchine intelligenti.

Tra i casi più urgenti, c’è naturalmente quello delle auto a guida autonoma. Molte delle sfide etiche poste ai progettisti possono infatti essere ricondotte proprio al nostro trolley problem. Cosa dovrebbe fare, ad esempio, un’auto che stia per travolgere un pedone che improvvisamente attraversi la strada? Cambiare corsia, con il rischio di causare un incidente ancora più grave, o rassegnarsi a sacrificare il malcapitato? O, ancora: l’auto è ferma davanti alle strisce pedonali per lasciar passare i bambini di una scuola, quando un veicolo arriva a tutta velocità alle spalle. La guida autonoma deve essere progettata perché l’auto si sposti, salvando i passeggeri, o restare ferma e aspettare l’urto, per proteggere gli scolari?

Per sviluppare in sicurezza le tecnologie più nuove del mondo, servirà rispondere alle domande più vecchie del mondo.


Augusto Carena

ac.dharma@gmail.com


Simona Leone Benporat

Socio di maggioranza presso Condeco S.r.l.

9mo

bello e interessante dilemma. Personalmente mi verrebbe da dire: "io.... speriamo che me la cavo", ma in una dotta e intelligente pagina tenterò di fare un'analisi più approfondita. Bello rileggerTi

Like
Reply
Michele Coletti

Associate Professor at Grenoble Ecole de Management

9mo

interessante, ma forse servirebbe un intervento del legislatore o qualche indice etico delle auto a guida autonoma in funzione degli algoritmi adottati

Like
Reply

To view or add a comment, sign in

More articles by Augusto Carena

Explore topics