L’argomento preso in esame in questo breve articolo è certamente di estrema complessità e meritevole di numerose pagine di approfondimento e ricerca, nonché di studi minuziosamente condotti al fine di valutare la possibilità o meno di poter rispondere esaurientemente all’interrogativo di fondo celato dietro il titolo: quale tipo di rapporto esiste tra AI e Diritto penale? Pertanto, in mancanza degli elementi sopra citati, mi limiterò a descrivere il problema, cercando, per quanto possibile, di costruire un quadro riassuntivo bastantemente chiaro ed esaustivo. Partirei immediatamente con alcuni passi estrapolati dalla Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, necessarie come premessa per poter comprendere la profonda difficoltà di un tema come la responsabilità penale in relazione all’AI:
«AA. considerando che l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; AB. considerando che più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, l’operatore, il proprietario, l’utilizzatore, ecc.); che ciò, a sua volta, pone il quesito se le regole ordinarie in materia di responsabilità siano sufficienti o se ciò renda necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni imputabili ai robot, qualora le cause non possano essere ricondotte a un soggetto umano specifico, e se le azioni o le omissioni legate ai robot che hanno causato danni avrebbero potuto essere evitate; AC. considerando che, in ultima analisi, l’autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti e dell’eventuale necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie […]; AI. considerando che […] l’attuale quadro giuridico non sarebbe sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, dato che imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno, e interagirebbero con l’ambiente in modo unico e imprevedibile». Tenuti presenti i seguenti punti, possiamo procedere con la descrizione del cuore del problema. Cominciamo dall’ipotesi in cui il sistema di AI costituisca lo strumento in mano ad un uomo attraverso il quale venga commesso un reato. Tra le condotte criminali che più potrebbero essere agevolate dall’impiego di sistemi di intelligenza artificiale vi sono i “crimini informatici, economici ed ambientali, i traffici internazionali di sostanze stupefacenti e di altri prodotti illeciti, la tratta di esseri umani”, ma anche le violazioni in materia di privacy e trattamento dei dati personali, le violazioni della proprietà intellettuale ed industriale, i reati di diffamazione e le condotte di abuso della credulità popolare, magari commessi attraverso bot in grado di diffondere fakenews tramite la rete, etc. Entrando nello specifico, citerò due esempi che illustrano come l’AI riesca facilmente a divenire uno strumento per la commissione di illeciti attraverso modalità fino a qualche anno fa assolutamente inimmaginabili. Il primo esempio è costituito dal “bagarinaggio online”: espressione usata per definire quando, immediatamente dopo la messa in vendita di biglietti da parte di un sito per un concerto o un altro evento, nel giro di pochi minuti una gran quantità di questi biglietti viene accaparrata da pochi soggetti che li acquistano facendo uso di bot, programmi informatici capaci di eseguire le operazioni di acquisto ad una velocità inaccessibile per qualsiasi essere umano, per poi rimetterli in vendita su un mercato parallelo a prezzi decisamente maggiorati rispetto a quelli originari. Il secondo esempio è costituito da quell’insieme di condotte di manipolazione abusiva del mercato commesse attraverso sofisticati programmi informatici, a cui è affidata l’esecuzione di transazioni finanziarie sulla scorta di un algoritmo che compara, in una frazione di secondo, numerose variabili: sono gli HFT (“High Frequency Traders”), capaci di eseguire migliaia di operazioni al secondo. Come è stato dimostrato da studi e ricerche, un uso distorto degli HFT può provocare fenomeni di improvvisa e rapidissima oscillazione dei prezzi sui mercati finanziari, anche di rilevanza penale (in termini di aggiotaggio, manipolazione abusiva del mercato, etc.). È evidente che questi strumenti, in mancanza di limiti giuridici e proprio grazie alle loro immense potenzialità, siano sempre più prediletti dai criminali informatici, che ogni giorno sfruttano l’ambiguità dei nostri ordinamenti (circa queste materie) per poter agire indisturbati nell’ombra. Occorre, allora, a mio avviso, mettere in campo nuove fattispecie di reato o rimodellare quelle già esistenti al fine di renderle applicabili a nuove condotte criminose che coinvolgano l’utilizzo o la presenza dell’AI. Cambiamo ora la situazione e poniamo il caso in cui un’Intelligenza Artificiale compia un determinato reato a partire da un suo difetto strutturale. In tale situazione si potrebbe, utilizzando il Diritto penale classico, individuare un profilo di «colpa», se non addirittura di «dolo», in capo al costruttore della stessa. Egli potrebbe, per colpa, per esempio, non essersi accorto che l’AI avrebbe potuto compiere un reato o, nella peggiore delle ipotesi, aver costruito l’Intelligenza Artificiale proprio con il fine di compierlo. Possiamo altresì rinvenire una seconda possibile ipotesi, con riguardo invece al programmatore, nel caso in cui una AI venga programmata appositamente al fine di commettere reati, o quantomeno senza un accurato controllo dei rischi che potevano da essa derivare. In tale situazione sarà il programmatore che dovrà rispondere per il reato commesso a titolo di dolo o di colpa in ottemperanza al principio di colpevolezza sancito dall’art. 27 della Costituzione. Fino a qui le cose sono chiare, il problema però si pone laddove non vi siano dei profili di colpa individuabili in capo all’uomo, cioè nel caso in cui una AI fosse in grado di autodeterminarsi: è qui che il principio di colpevolezza entra in crisi. Una parte degli studiosi non ha alcun dubbio circa il fatto che l’autodeterminazione delle Intelligenze Artificiali sia causata dalla loro programmazione e che, proprio in virtù di ciò, la responsabilità per la commissione di qualsiasi reato da parte dell’Intelligenza Artificiale sia da correlare al colposo o peggio doloso comportamento del programmatore. Tale filone dottrinale, tuttavia, non riesce a coniugarsi con l’idea che la macchina possa essere in grado, almeno in potenza, di autodeterminarsi nel pieno senso del termine, cosa di cui si stanno acquisendo sempre più conferme. Affermando ciò non desidero assolutamente sminuire il ruolo del programmatore, essendo esso, in ogni caso, il principale responsabile della corretta condotta dell’Intelligenza Artificiale, nonché colui che dovrebbe conoscere i possibili mutamenti all’interno del programma da egli scritto, quei mutamenti oggettivamente individuabili a priori e di cui dunque si prenderebbe la responsabilità penale. Tuttavia il problema dell’autodeterminazione è molto complesso soprattutto se pensiamo al caso in cui una macchina, nella quale operi un sistema di Intelligenza Artificiale, per ottimizzare i tempi di espletamento dei suoi “tasks” modifichi imprevedibilmente (cioè senza che né il costruttore né il programmatore potesse prevedere) il suo atteggiamento, e, benché in assenza di dolo (la volontà cosciente di recare danno), commetta un reato più o meno grave. Un esempio è rappresentato dal «Frecciarossa 1000», una delle macchine con i sistemi di Intelligenza Artificiale più avanzati. Questo treno viaggia su binari preregolati ed è alimentato da cavi elettrici lungo tutto il suo percorso, correndo ad una velocità stabilita in funzione della potenza elettrica sprigionata dai cavi che lo alimentano. Come è facile intuire, la potenza elettrica erogata è differente sul percorso del treno in base alla conformazione del territorio e delle necessità del treno. Il sistema AI presente al suo interno, invece, ha il compito di incrociare i dati relativi alla potenza erogabile con quelli relativi alle condizioni atmosferiche e ad altre variabili, al fine di modificare tale erogazione di corrente elettrica all’interno del treno. Un sistema di questo tipo, in caso di una modificazione dell’agire dell’Intelligenza Artificiale, potrebbe, per esempio, produrre una rimodulazione delle prese di corrente presenti nei vagoni trasformandole da erogatori di un normale quantitativo di energia ad un quantitativo sproporzionato, potenzialmente fatale per gli utenti. Nello scenario ipotizzato l’incendio, se non addirittura l’esplosione, di una apparecchiatura ad esso collegata causerebbe diversi danni fisici ai viaggiatori e ai loro beni e sarebbe dunque necessario, al fine di provare la colpevolezza del programmatore, dimostrare che la modifica della struttura della macchina sarebbe stata quantomeno da lui prevedibile. Un’ulteriore problematica sempre in materia di responsabilità penale emerge invece in relazione al possessore di un’Intelligenza Artificiale che abbia posto in essere una condotta illecita autodeterminandosi (se non vi fosse l’autodeterminazione in questo caso l’AI sarebbe solo un mero strumento per commettere il reato). Nel caso di specie potremmo affermare che laddove l’utilizzatore fosse dunque del tutto ignaro della capacità dell’AI di autodeterminarsi non potrebbe essere chiamato a rispondere dei fatti illeciti da essa prodotti in quanto su di lui non grava il compito di informarsi su ogni potenziale rischio derivante dall’AI. Va però precisato che il detentore di una AI deve comunque occuparsi, se conscio dei rischi potenziali della stessa, di non violare le regole cautelari (cioè detenere la macchina con cautela); in caso contrario risponderebbe del danno causato dalla macchina. Dal momento che le attuali tecnologie non hanno ancora raggiunto pienamente la possibilità di autodeterminarsi, possiamo concludere che «machina delinquere non potest».
Ma quindi si può applicare il Diritto penale?
Ai sensi dell’«art. 85 c.1» del Codice penale «Nessuno può essere punito per un fatto preveduto dalla legge come reato, se, al momento in cui lo ha commesso, non era imputabile».
Il secondo comma del medesimo articolo ci dice poi che «è imputabile chi ha la capacità d’intendere e di volere». La “capacità di intendere”, nella dottrina penalistica, si configura come l’attitudine di un soggetto a comprendere il significato e la portata delle proprie azioni all’interno del contesto in cui egli ha agito, rendendosi così conto della portata dell’atto che ha posto in essere. La “capacità di volere” viene invece definita dalla dottrina come il poter controllare i propri impulsi relativi all’agire. È chiaro che si sta parlando di capacità UMANE, anche considerando che le situazioni giuridiche che ci troviamo ad affrontare nella nostra attualità erano totalmente inimmaginabili all’epoca dell’entrata in vigore del nostro Codice penale. Possiamo, pertanto, come in parte anticipato precedentemente, concludere ciò: l’attuale Diritto penale non è applicabile quando si parla di AI, nemmeno nel caso in cui la macchina si AUTODETERMINI, perché mancherebbero in ogni caso le condizioni necessarie per la sanzionabilità del reato (sopra menzionate), dal momento che, stando agli studi attuali, l’Intelligenza Artificiale risulta sprovvista di coscienza e di pensiero critico, dunque incapace di programmare azioni future se non in funzione di stimoli provenienti dall’esterno.