Diverse sono le tipologie di responsabilità stabilite nell’ordinamento (civile – che comprende anche quella per la circolazione dei veicoli -, penale, amministrativa, ecc.). L’IA, strumento tecnologico piuttosto recente che può essere classificato come una macchina pensante, può essere considerata come un centro di interessi che risponde del proprio operato, come se fosse un essere umano? I civilisti negano, allorché i penalisti paiono più possibilisti. A breve termine urgerà occuparsi della responsabilità derivante dalla circolazione dei veicoli a causa della commercializzazione di quelli a guida automatica.
Non tutti se ne stanno realmente accorgendo, ma nell’era dell’intelligenza artificiale (IA o, per chi preferisce gli anglismi, AI) l’esperienza umana sta cambiando radicalmente. L’utilizzo di questo tipo di tecnologia, ancorché di creazione abbastanza recente nel tempo, infatti, è ormai all’opera nella stragrande maggioranza delle categorie di attività umane. Tale evoluzione improvvisa è dovuta, principalmente, alla miniaturizzazione delle apparecchiature elettro-meccaniche e allo sviluppo delle connessioni (con e senza fili) che, permettono, tra l’altro, oltre alla comunicazione, anche l’immagazzinamento di una gran mole di dati (mediante nuvole o cloud - ‘big data’).
I primi esperimenti in relazione all’intelligenza artificiale risalgono pressappoco a settantacinque anni fa. Essa è definibile come quell'insieme di studi e ricerche, effettuati mediante l'ideazione e la scrittura di algoritmi, che tendono alla realizzazione di macchine elettroniche in grado di risolvere problemi e di riprodurre attività umane. Dal momento che le medesime macchine permettono la prosecuzione delle ricerche stesse, con il medesimo termine si indicano anche le apparecchiature. Queste ultime possono assumere l'aspetto di ordinari computer o di semplici percettori e riproduttori di suoni o, anche, le fattezze umane attraverso l'assemblaggio di robot e, nei casi più evoluti, di androidi.
In generale si distingue la IA debole da quella forte. Con la prima locuzione si indicano dei sistemi che sono in grado di risolvere dei problemi senza la pretesa di emulare l'intelligenza umana; con la seconda, invece, si tende al risultato appena indicato. Questa distinzione è correlata a quella tra Machine Learning (Apprendimento Automatico) e Deep Learning (Apprendimento profondo). Nel primo caso l'evoluzione del sistema proviene dall'esterno, nel secondo l'apparecchio apprende da sé in base alle sue esperienze pregresse.
Gli esempi di applicazione dell’intelligenza artificiale sono i più diversi: nell’ambito della domotica si possono annoverare gli assistenti vocali; fuori di casa - la cosiddetta robotica - compariranno a breve veicoli a guida autonoma (in proposito si segnala che il Ministero delle infrastrutture, mediante il decreto n. 70/2018, in attuazione dell’art. 1, co. 72, L. n. 205/2017, ha avviato la sperimentazione di soluzioni tecnologiche per adeguare la rete dei trasporti e ha già inviato un’ulteriore bozza di decreto all’UE per implementare le ricerche in tal senso) o alberi dalla struttura di metallo destinati alla purificazione dell’aria. Ma non sarà nemmeno raro incontrare badanti o infermieri robot o androidi, o macchine per vigilare sull’ordine pubblico o robot-killer per le azioni di guerra, oppure bambole di compagnia (che riproducono perfettamente il corpo umano) o soldati androidi per lo studio della medicina chirurgica o robot pizzaioli o insegnanti. Addirittura androidi preti. L’utilizzo dell’IA, tuttavia, concerne anche programmi - in questo caso si tratta di burotica - per l’emissione di pareri legali o per preparare e presentare la dichiarazione dei redditi, oppure per risolvere controversie (la ‘giustizia predittiva’ – nessun essere umano, su ciò si concorda anche a livello legale, può essere giudicato e condannato da una macchina - GDPR) o per sviluppare i mercati finanziari (Fin-Tech). Ma anche per comporre musica o per assemblare immagini ‘pittoriche’ (l’ultima - Ritratto di Belamy - è stata venduta a New York a oltre 390.000€). Non si possono non ricordare, infine, le utilità che è possibile attingere in azienda mediante un clone digitale della stessa per gestire la filiera o personalizzare il rapporto con i clienti.
Orbene, stante i vastissimi campi di applicazione della nuova avveniristica tecnologia, la comunità culturale, da più parti, comincia ad allertarsi in relazione alla regolamentazione di questo fenomeno in importante espansione. Tra i vari interrogativi che esso pone, occorre chiedersi se tali ritrovati possano essere considerati come centro di diritti e doveri, ossia se possano vantare una soggettività giuridica e, pertanto, se possano essere considerati come centro di responsabilità (giuridica).
Già il Leopardi si espose in proposito, in maniera ancora ‘primitiva’, affermando che la materia può pensare (Zibaldone, fogli 4251 e ss.). Il Turing, considerato il creatore del computer - colui che si suicidò con una mela avvelenata come Biancaneve, da cui il simbolo della Apple -, affermò, nel 1950 (Macchine calcolatrici e intelligenza): "Credo che la domanda iniziale, «possono pensare le macchine?», sia troppo priva di senso per meritare una discussione. Ciò nonostante credo che alla fine del secolo l'uso delle parole o l'opinione corrente si saranno talmente mutate che chiunque potrà parlare di macchine pensanti". Quindi la materia e le macchine possono pensare. Sono esse coscienti? - ci si potrebbe allora chiedere.
Tale questione è quella cruciale in relazione alla soggettività giuridica. Si afferma (Potter, Searle, Sgreccia) che esse non sono (auto)coscienti, ossia, per esempio, non dormono, non hanno sogni e la loro reazione è basata solo su ‘ragionamenti’ e non è mai istintiva. Ne consegue che esse non possono essere considerate soggetti di diritto e pertanto non possono rispondere del proprio operato.
L’impostazione appena indicata, almeno in prospettiva civilistica, è stata assunta a livello europeo. Essa è contenuta nella risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)). Nella fase attuale, a parere del Parlamento, la responsabilità deve essere imputata a un essere umano e non a una macchina. Essa deve essere proporzionale all'effettivo livello di istruzioni impartite alla stessa e al grado di autonomia di quest'ultima, di modo che quanto è maggiore la capacità di apprendimento o l'autonomia e quanto maggiore è la durata della formazione del macchinario, tanto maggiore dovrebbe essere la responsabilità del suo formatore. Quest'ultimo, a sua volta, può essere identificato con il fabbricante, l'operatore, il proprietario o l'utilizzatore (in questo caso parrebbe profilarsi la fattispecie di responsabilità da prodotto difettoso, ma si potrebbe parlare, con i dovuti accorgimenti, anche di responsabilità per fatto degli ausiliari ex art. 1228 c. c.). Il Parlamento UE evidenzia, inoltre, l'opportunità di prevedere dei nuovi prodotti assicurativi al riguardo.
Nel campo penale, invece, il Pinelli, componente del comitato scientifico della Fondazione Leonardo, afferma che “occorre riscrivere le norme di responsabilità penale a cominciare all’istituto della colpa … No all’automatismo della responsabilità penale che non può ricadere su costruttore e produttore della macchina quando l’errore è frutto di una decisione autonoma della macchina”.
Da quanto riportato è evidente che nella comunità culturale le divergenze sono ancora notevoli. In futuro occorrerà occuparsi, oltre che delle responsabilità menzionate più su (oggettiva, extracontrattuale, contrattuale e penale), anche di quella patrimoniale, di quella amministrativa e contabile, di quella politica, di quella sportiva, e, a breve termine, di quella per la circolazione dei veicoli. Le macchine a guida automatica saranno presto disponibili sul mercato!