L’8 dicembre 2023 è una data storica nel mondo della tecnologia e della governance, poiché il Parlamento, il Consiglio e la Commissione dell’Unione Europea hanno raggiunto un accordo politico fondamentale: l’AI Act, il primo regolamento al mondo specificamente dedicato all’Intelligenza Artificiale (IA). Questo accordo ambizioso mira a plasmare lo sviluppo futuro dell’IA in Europa, assicurando al contempo la sicurezza, il rispetto dei diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale.
Nonostante il percorso verso l’entrata in vigore dell’AI Act sia inevitabilmente lungo e complesso, la Commissione si è impegnata a lanciare un “Patto per l’IA” che chiede agli sviluppatori di rispettare degli obblighi specifici prima ancora che diventi vincolante. L’AI Act dell’UE rappresenta, dunque, un significativo passo avanti nella regolamentazione dell’intelligenza artificiale, bilanciando l’innovazione con la tutela dei diritti e della democrazia. Mentre il percorso verso l’attuazione completa potrebbe richiedere ulteriore tempo, la volontà di guidare l’evoluzione dell’IA in una direzione centrata sull’essere umano è un segno di responsabilità e lungimiranza da parte dell’Unione Europea.
Sotto tale ultimo aspetto, tuttavia, la concreta utilizzazione dei software di Intelligenza Artificiale, come Chat GPT, sta infervorando il dibattito in ordine al rapporto tra l’eventuale condotta illecita umana e il contributo fornito dall’A.I. per la realizzazione di quest’ultima.
La pervasività dell’intelligenza artificiale, rappresentata, ad esempio, da Chat GPT e prodotti simili, che godono di un ampio utilizzo potenziale, è ormai una caratteristica distintiva della nostra epoca. Questa diffusione pone l’urgente necessità di valutare se e in che misura tali applicazioni impongano o suggeriscano soluzioni giuridiche significativamente diverse da quelle tradizionalmente adottate per situazioni analoghe.
In primis, occorre sgomberare subito il campo da ogni eventuale equivoco, precisando come in situazioni in cui Chat GPT venga utilizzato per attività chiaramente e inequivocabilmente criminali, come la predisposizione di testi credibili per frodi informatiche, l’imputazione della responsabilità penale deve seguire gli ordinari criteri generali di attribuzione. Ad esempio, in caso di diffamazione online realizzata mediante la predisposizione di un testo ad hoc, generato da un software di Intelligenza Artificiale, la responsabilità penale deve ricadere inequivocabilmente sul soggetto che voluto tale output, poiché questo deve ritenersi il risultato di una sollecitazione umana volta a creare e utilizzare modalità espressive costituenti reato. All’evidenza, infatti, l’Intelligenza Artificiale, in sé e per sé, non può essere considerata un soggetto agente, perfettamente riconducibile nell’alveo dell’omonima dicitura penalistica, poiché difetta dei requisiti di consapevolezza e volontà richiesti inderogabilmente ai fini di una compiuta imputazione di natura penale. Seppur realizzata mediante software di Intelligenza Artificiale, la responsabilità penale deve rimanere ancorata unicamente all’azione umana realizzata mediante l’utilizzo del programma.
Il discorso può essere spostato su un piano di maggior incertezza, qualora ad essere valutate non siano più azioni dolose commesse dall’essere umano, ma quelle di natura non intenzionale. Soprattutto nell’ambito dei software di Intelligenza Artificiale ad oggi fruibili, tale aspetto assume un’indubbia importanza, posto che l’essere umano comune non ha la possibilità di intervenire sull’algoritmo modificandolo, ma può unicamente fruire dell’output generato dal programma.
Tra i commentatori, infatti, vi è chi evidenzia come l’opacità e l’imprevedibilità di strumenti basati sull’IA rendano estremamente difficile attribuire la colpa di un reato unicamente all’azione di un singolo individuo. Nel concreto, si pensi all’errore medico causato da un robot-chirurgo. In tale contesto ci si troverebbe dinnanzi ad un paradosso che, tuttavia, a livello pratico deve essere risolto: l’utilizzo lecito da parte dell’essere umano di un software di Intelligenza Artificiale potrebbe comportare la commissione di un fatto illecito, pressoché (se non addirittura totalmente) ascrivibile all’errore di un programma IA, seppur causato a sua volta da una censurabile elaborazione algoritmica di dati, provenienti da database inseriti da esseri umani.
Nel mare magnum delle molteplici interpretazioni in ordine alla responsabilità penale in tema di Intelligenza Artificiale, devono puntualizzarsi due punti chiave: in primo luogo, vi è la necessità di trovare una nuova categoria di responsabilità che sia in grado di includere le tipicità di tale nuova tecnologia, al di là del codice penale esistente. Secondariamente – e ciò costituisce l’aspetto maggiormente pragmatico – la creazione della predetta categoria di responsabilità non deve ostacolare lo sviluppo e l’uso di tali programmi.
Come anticipato in apertura, un simile approccio è stato adottato dall’Unione Europea mediante il cd. AI Act, seppur allo stato ancora in “fase embrionale”. Le regole introdotte dall’atto di matrice europea, tendono infatti ad armonizzare una serie di obblighi, come la valutazione del rischio, l’adozione di misure tecniche e organizzative per ridurre il rischio, la registrazione delle attività e l’adesione a principi etici.
Il regolamento proposto – in tutti i settori del diritto – cerca dunque di bilanciare l’innovazione tecnologica con la necessità di proteggere i diritti e la sicurezza degli individui. Tuttavia, la sua efficacia dipenderà dalla sua attuazione pratica e dalla sua capacità di evolversi con il rapido sviluppo delle tecnologie dell’Intelligenza Artificiale.