Articolo 2087 e intelligenza artificiale: nuove sfide per il diritto penale
Articolo 2087 e intelligenza artificiale: nuove sfide per il diritto penale
Un recente saggio firmato da Silvia De Blasis approfondisce il delicato rapporto tra l’intelligenza artificiale (IA), la responsabilità penale e l’articolo 2087 del Codice Civile, con riferimento specifico agli infortuni sul lavoro e alla colpa del datore. L’analisi si sofferma su come l’evoluzione tecnologica possa influenzare la configurazione della responsabilità per omesso impedimento dell’evento lesivo.
L’art. 2087 c.c. tra norma di principio e responsabilità penale
Un’origine giurisprudenziale “elastica”
L’art. 2087 c.c., storicamente utilizzato come norma a tutela dei lavoratori, ha assunto nel tempo un ruolo centrale anche in ambito penale. È stato interpretato come base per l’obbligo di impedire gli eventi dannosi e come indice della colpa datoriale, pur in assenza di precetti dettagliati.
La spinta della pandemia e l’allargamento della colpa
Durante l’emergenza Covid-19, il ricorso all’art. 2087 ha mostrato i rischi di un’estensione della responsabilità penale, alimentando il dibattito sulla compatibilità con il principio di legalità e personalità della colpa.
Intelligenza artificiale e imputazione penale: il nodo dell’imprevedibilità
Sistemi autonomi e responsabilità dell’utilizzatore
L’uso di IA autonomi introduce complessità inedite: l’imprevedibilità delle azioni delle macchine può rendere incerta la responsabilità del datore o del programmatore. L’impossibilità di prevedere o controllare certe condotte esclude, in molti casi, l’elemento soggettivo della colpa.
Programmatore, produttore o utilizzatore: chi è il garante?
Il saggio solleva interrogativi sulla possibilità di imputare la responsabilità a più soggetti, ma solo in presenza di dolo o violazione di protocolli codificati. L’imputazione colposa appare problematica quando la macchina agisce oltre ogni controllo umano.
Verso protocolli operativi e regole cautelari per l’IA
Il ruolo dell’AI Act e del rischio consentito
Una soluzione auspicata è l’adozione di regole precauzionali e protocolli specifici che possano costituire standard comportamentali. Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act) va in questa direzione, consentendo di delimitare l’area del “rischio consentito” e ridurre l’ambiguità giuridica.
Evitare derive penalistiche: serve chiarezza normativa
In assenza di norme predittive, il rischio è una deriva verso una responsabilità oggettiva, incompatibile con il diritto penale moderno. La previsione di regole chiare permette di definire meglio i soggetti garanti e prevenire letture estensive ex post.
L’intelligenza artificiale impone una riflessione profonda sull’adeguatezza delle categorie classiche del diritto penale. L’articolo 2087 c.c., se non affiancato da protocolli e regole operative mirate, rischia di trasformarsi da strumento di tutela a leva di responsabilità indefinita. Serve quindi un approccio normativo basato sul rischio, in linea con quanto previsto dall’AI Act, per garantire sicurezza, equità e certezza del diritto nei luoghi di lavoro ad alta tecnologia.