Articolo 2087 e intelligenza artificiale: nuove sfide per il diritto penale

Un recente saggio firmato da Silvia De Blasis approfondisce il delicato rapporto tra l’intelligenza artificiale (IA), la responsabilità penale e l’articolo 2087 del Codice Civile, con riferimento specifico agli infortuni sul lavoro e alla colpa del datore. L’analisi si sofferma su come l’evoluzione tecnologica possa influenzare la configurazione della responsabilità per omesso impedimento dell’evento lesivo.

L’art. 2087 c.c. tra norma di principio e responsabilità penale

Un’origine giurisprudenziale “elastica”

L’art. 2087 c.c., storicamente utilizzato come norma a tutela dei lavoratori, ha assunto nel tempo un ruolo centrale anche in ambito penale. È stato interpretato come base per l’obbligo di impedire gli eventi dannosi e come indice della colpa datoriale, pur in assenza di precetti dettagliati.

La spinta della pandemia e l’allargamento della colpa

Durante l’emergenza Covid-19, il ricorso all’art. 2087 ha mostrato i rischi di un’estensione della responsabilità penale, alimentando il dibattito sulla compatibilità con il principio di legalità e personalità della colpa.

Intelligenza artificiale e imputazione penale: il nodo dell’imprevedibilità

Sistemi autonomi e responsabilità dell’utilizzatore

L’uso di IA autonomi introduce complessità inedite: l’imprevedibilità delle azioni delle macchine può rendere incerta la responsabilità del datore o del programmatore. L’impossibilità di prevedere o controllare certe condotte esclude, in molti casi, l’elemento soggettivo della colpa.

Programmatore, produttore o utilizzatore: chi è il garante?

Il saggio solleva interrogativi sulla possibilità di imputare la responsabilità a più soggetti, ma solo in presenza di dolo o violazione di protocolli codificati. L’imputazione colposa appare problematica quando la macchina agisce oltre ogni controllo umano.

Verso protocolli operativi e regole cautelari per l’IA

Il ruolo dell’AI Act e del rischio consentito

Una soluzione auspicata è l’adozione di regole precauzionali e protocolli specifici che possano costituire standard comportamentali. Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act) va in questa direzione, consentendo di delimitare l’area del “rischio consentito” e ridurre l’ambiguità giuridica.

Evitare derive penalistiche: serve chiarezza normativa

In assenza di norme predittive, il rischio è una deriva verso una responsabilità oggettiva, incompatibile con il diritto penale moderno. La previsione di regole chiare permette di definire meglio i soggetti garanti e prevenire letture estensive ex post.

L’intelligenza artificiale impone una riflessione profonda sull’adeguatezza delle categorie classiche del diritto penale. L’articolo 2087 c.c., se non affiancato da protocolli e regole operative mirate, rischia di trasformarsi da strumento di tutela a leva di responsabilità indefinita. Serve quindi un approccio normativo basato sul rischio, in linea con quanto previsto dall’AI Act, per garantire sicurezza, equità e certezza del diritto nei luoghi di lavoro ad alta tecnologia.