L’intelligenza artificiale ucciderà il contratto?

L’intelligenza artificiale ucciderà il contratto?

Forse la notizia della morte del contratto, per parafrasare Mark Twain, è «notevolmente esagerata». Tuttavia è giusto ragionare oggi degli scenari che si aprono, nel momento in cui decidiamo di affidarci ad algoritmi di vario tipo per definire i termini delle obbligazioni giuridiche che regolano la nostra vita. Spunti dal convegno di Iusintech sulle nuove abilità delle macchine.

Quando diciamo che il contratto è un istituto giuridico, ci dimentichiamo spesso di riflettere sul fatto che il termine contratto può indicare tanto l’incontro della volontà fra le parti, le quali assumono reciproci obblighi e diritti, quanto il meccanismo che certifica tale volontà e ne regola la fase esecutiva. Nel linguaggio comune parliamo spesso di «contratto» intendendo il documento su cui sono descritti i termini di un accordo e sono apposte le firme dei contraenti. Tuttavia ci dimentichiamo che lo stesso documento non esisterebbe, se la volontà delle parti non lo avesse preceduto e determinato. In questo senso, come ben argomenta Francesco Rapone, i cosiddetti smart contract non appaiono né smart, né contract. Essi sono programmi software che eseguono la volontà delle parti. [I]

Insomma: in un contratto la dimensione della volontà è decisiva. Tanto è vero che l’art. 428 del Codice Civile stabilisce l’annullabilità degli atti compiuti da persona incapace di intendere e volere. Che cosa succede, dunque, quando ci affidiamo ai cosiddetti self-driving contract, demandando ad algoritmi anche la decisione sul se e sul quando stipulare un contratto? L’autonomia contrattuale delle parti, in cui si manifesta appunto la dimensione della volontà, non si restringe grandemente? Non si tratta, in questi casi, di riconoscere alla macchina una sorta di delega in bianco? Se l’algoritmo prende decisioni in autonomia, possiamo ancora parlare di contratto?

Macchine che eseguono

Sono domande, queste, tutt’altro che peregrine. Lo ha ricordato Dianora Poletti, professoressa ordinaria di Diritto Privato e di Diritto dell'Informatica all’Università di Pisa e direttrice del Centro Interdipartimentale Diritto e Tecnologie di Frontiera (DETECT), in occasione di un bel webinar organizzato ieri da Iusintech, prima parte del convegno su Le quattro abilità delle macchine intelligenti che proseguirà il 26 febbraio, il 5 marzo e il 18 marzo.

Certamente possiamo parlare del ruolo del contratto nella regolazione dell’AI, ossia degli obblighi e dei profili di responsabilità nel caso di utilizzo di tecniche di intelligenza artificiale. Ma secondo Poletti dovremmo anche rovesciare i termini della questione e riflettere sul ruolo dell’AI nella regolazione del contratto. In questo senso il contratto può trovarsi dietro l’AI, circondato da essa o addirittura sovrastato.

Pensiamo – per fare l’esempio di una tipologia di servizio sempre più comune – ai motori di raccomandazione basati su tecniche di collaborative filtering, ossia ai sistemi di intelligenza artificiale impiegati per prevedere le preferenze della clientela e proporre formule contrattuali personalizzate, sulla scorta della classificazione in gruppi dei clienti stessi. Già in casi come questo si pongono la questione del diritto a non subire decisioni totalmente automatizzate e quella del diritto alla interpretabilità dell’algoritmo.

I contratti algoritmici, ossia quelli in cui un algoritmo determina le obbligazioni delle parti [II], sono più diffusi di quanto in genere si crede. Essi hanno preso largamente piede, per esempio, nell’ambito del cosiddetto high speed trading di prodotti finanziari, dove gli scambi si svolgono a velocità tale da rendere inservibile l’intelligenza umana. In questi casi le parti concordano che, in un certo momento dopo la formazione del contratto, un algoritmo opererà come gap-filler. Il punto, ancora una volta, è quello della trasparenza. L’algoritmo deve essere ispezionabile, interpretabile e capibile. Nei sistemi giuridici, infatti, è necessario conoscere la sequenza razionale che motiva un obbligo o un giudizio. Ma tale requisito non è sempre soddisfatto dalle tecniche di intelligenza artificiale. In particolare gli algoritmi di deep learning sono, per loro stessa natura, non documentabili e difficilmente ispezionabili: «funzionano, ma non ci dicono perché» ha osservato Gianfranco D’Aietti, docente di Informatica Giuridica ed ex magistrato, intervenendo al webinar di Iusintech.

La questione della responsabilità

Il fatto che il contratto stipulato tramite l’impiego di tecniche di intelligenza artificiale superi il “vecchio” contratto telematico solleva una serie di questioni sotto il profilo della responsabilità. È ancora Poletti a porre una serie di domande, evidenziando il fatto che buona parte di esse non hanno ancora una risposta chiara. Su chi ricade, per esempio, l’errore del traduttore del codice giuridico in codice informatico? Il problema si pone, tanto per cominciare, nel caso dei già citati smart contract. Essi si servono infatti di informazioni provenienti dall’esterno, attraverso i cosiddetti “oracoli”. Chi ne verifica l’attendibilità? Inoltre per dirimere eventuali controversie nell’applicazione degli smart contract servono “interpreti”, necessari per risolvere problematiche di comprensione legate alla natura del loro linguaggio (software).

E ancora: le piattaforme attraverso le quali gli utenti recensiscono prodotti e servizi possono essere ritenute contrattualmente responsabili per i falsi feedback negativi forniti dagli utenti stessi? La proposta europea del Digital Service Act, presentata dalla Commissione il 15 dicembre 2020 e destinata a riformare la Direttiva sul commercio elettronico n. 31 del 2000, sembra confermare una regime di tendenziale irresponsabilità delle piattaforme. Il che rischia però di rafforzare un evidente squilibrio contrattuale e lo svantaggio competitivo delle piccole imprese.

Con la risoluzione del 2020 l’Europa sembra insomma abbandonare l’idea di attribuire una personalità elettronica agli algoritmi. Il punto è che oggi le capacità dell’algoritmo appaiono in taluni casi come vere e proprie capacità decisionali. Per questo chiunque crei un sistema di intelligenza artificiale o interferisca con esso dovrebbe essere chiamato a rispondere del danno che lo stesso eventualmente produce.

Sul tema della responsabilità è intervenuta anche Raffaella Aghemo, co-founder di Iusintech, che ha commentato le linee guida contenute nel Libro Bianco della Commissione Europea sull’Intelligenza Artificiale pubblicato il 19 febbraio 2020. Si tratta di un documento importante, perché tenta forse per la prima volta di affrontare il tema dell’AI in modo organico. L’obiettivo della Commissione è duplice: da un lato creare le condizioni per un «ecosistema di eccellenza» nel campo dell’intelligenza artificiale in Europa, dall’altro fare in modo che lo stesso sia anche un «ecosistema di fiducia». Aghemo ha evidenziato alcuni principi fondamentali del Libro Bianco. Primo fra tutti quello che mira a imporre alle tecnologie di intelligenza artificiale requisiti by design, ossia stabiliti fin dalla progettazione. Non meno importante l’idea di fissare regole distinte per i sistemi definiti «a basso rischio» e quelli «ad alto rischio», nei quali sono in gioco le libertà e i diritti fondamentali dei cittadini.

[I] Francesco Rampone, Smart contract: né smart, né contract, “Rivista di Diritto Privato”, 2 (2019), pp. 1-18.

[II] Lauren Henry Scholz, Algorithmic Contracts, “Stanford Technology Law Review”, 128 (2017), pp. 128-168.

Francesco Pizzetti

Professor of Constitutional Law, Turin University. Former President of the Italian Data Protection Authority

3 anni

intelligenza artificiale incide sul libero arbitrio.per questo incide anche (ma moderatamente) sul contratto Parliamo troppo ma riflettiamo troppo poco sulla intelligenza artificiale e le carte etiche sulla IA servono moderatamente e possono ingannare molto le persone spingendole a rinunciare a capire.Il tema e' importantissimo ben oltre il contratto

lunga vita al progresso

Francesco Scalia

Senior level experience in IT Management, Business Process Management, Uipath developer, Blue Prism developer, Robotic Process Automation and Organisational Design .

3 anni

Porrei con umiltà attenzione alla differenza tra decisione e conduzione. Una ai analizza I dati e formalizza una strategia fattivamente in base alla nube, per noi , di informazioni. Decidere va oltre alle capacità attuali di computazione. Porsi il problema è utile poichè I computer quantici di nuova generazione sono in arrivo.. Diverso è il controllo della macchina intesa come strumento creato e programmato nelle sue manifestazioni da una delle parti del contratto.. ma in questo casi si parla di strumenti ..e non di altro

Andrea Missinato

Senior Test Manager at TXT GROUP

3 anni

Il problema dell'ispezionabilità è emerso con le reti neurali, che per natura sono solo limitatamente ispezionabili, e comunque almeno ad oggi decisamente "non capibili" (capire cosa stia realmente facendo all'interno una rete con milioni di features sembra decisamente utopistico). Le classi di problemi che ci troviamo ad affrontare oggi sono di complessità tale per cui non è realistico sperare di mantenere l'elemento umano nel loop: inutile costruire un missile per poi zavorrarlo nel tentativo di mantenerlo "pilotabile". O ci togliamo di mezzo e lo lasciamo correre, o rinunciamo al missile, e ci accontentiamo di viaggiare a velocità alla nostra portata. Just my two pence

Per visualizzare o aggiungere un commento, accedi