Intelligenza artificiale ed illeciti ambientali
Studio sull'utilizzo dell'Intelligenza artificiale nella prevenzione e contrasto degli illeciti ambientali curato per la Fondazione Occorsio da Pasquale Fimiani e Giuseppe Sgorbati (Roma - Milano 17 febbraio 2025)
La Fondazione Occorsio segnala la pubblicazione il 17 febbraio 2025 dell'ultima versione del rapporto su Intelligenza artificiale ed illeciti, curato da Pasquale Fimiani, membro del comitato scientifico ed Avvocato generale presso la Procura generale della Corte di Cassazione e Giuseppe Sgorbati, già direttore tecnico scientifico di Arpa Lombardia e special advisor della ricerca.1 Nella presentazione si precisa che la Fondazione, a partire dal 2020, si è occupata in generale dell'uso dell'Intelligenza Artificiale nel settore penale quale strumento sia per la commissione di reati (alterazione del mercato finanziario, disinformazione, reati tradizionali), sia per il contrasto ad essi. Nel campo ambientale la ricerca si è concentrata fin dall'avvio su tale secondo aspetto partendo dall'esame delle esperienze già messe in campo nel nostro Paese e di quelle straniere, fino ad approfondire gli aspetti problematici dell'applicazione delle novità normative del 2024 rappresentate dall' AI Act (regolamento 2024/1689/Ue), dalla nuova direttiva 2024/1203/Ue sulla tutela penale dell'ambiente e dal Dlgs n. 103/2024, in tema di semplificazione delle attività amministrative di controllo, con le plurime questioni che rispettivamente pongono per le autorità amministrativa e penale nelle attività di prevenzione e tutela ambientale. D'intesa con la Fondazione si pubblica la ricerca2.
|
Indice:
2) IA e scenari ambientali globali
3) Intelligenza Artificiale e controlli ambientali
5) L'Analisi di rischio e la pianificazione dei controlli
5.2) L’approccio europeo all’analisi di rischio aziendale di non conformità
5.4) Criticità nella programmazione dei controlli attraverso "sistemi intelligenti"
6) Data Analytics: il trattamento dei dati alla ricerca di non conformità
8) Visione automatica e contrasto ai reati ambientali
8.1) La Earth Observation in generale
8.2) Il caso della ricerca di allevamenti intensivi illegali negli Usa
8.3) La ricerca di depositi illegali di rifiuti in Italia: il caso della Lombardia
9) Polizia predittiva e protezione dell’ambiente: la disciplina dell’AI Act
10) Intelligenza Artificiale, accuratezza e uso in campo giudiziario
11) Gli insiemi di informazioni utilizzati per l'addestramento delle applicazioni di IA
12) Intelligenza artificiale, controlli ambientali e processo penale
13.2) Un percorso per uno sviluppo equilibrato dell’uso dell’IA in Italia: obiettivi ed azioni
1)
Premessa
La Fondazione Occorsio, a partire dal 2020, si è occupata dell'uso dell'Intelligenza Artificiale quale strumento sia per la commissione di reati (alterazione del mercato finanziario, disinformazione, reati tradizionali, quali truffe e reati sessuali), sia per il contrasto ad essi.3
Con riguardo agli illeciti ambientali lo studio si è concentrato fin dall'avvio su tale secondo aspetto. È vero che è ipotizzabile la loro commissione mediante strumenti di intelligenza artificiale (si pensi ad attività di "bioterrorismo" realizzate attraverso l'interferenza nei sistemi di gestione informatica di un acquedotto), ma trattasi di fenomeni estremi, mentre in via ordinaria l'uso di tale tecnologia può esprimere un enorme potenziale nella prevenzione e contrasto degli illeciti ambientali.4
L'esame del tema si è inizialmente concentrato sulla verifica delle forme di possibile utilizzo e sul confronto con esperienze già messe in campo nel nostro Paese ed all'estero. L'esito di tale attività sarà svolto nei paragrafi seguenti.
Due novità normative del 2024 hanno poi aperto ulteriori prospettive di esame del tema oggetto di studio.
In primo luogo, è stato emanato il regolamento dell'Unione europea "Artificial Intelligence Act (AI Act)"5 del 13 giugno 2024, che disciplina alcuni aspetti rilevanti nella prevenzione ed accertamento dei reati ambientali.
D'altro lato, la nuova direttiva (Ue) 2024/1203 del Parlamento europeo e del Consiglio dell'11 aprile 2024 sulla tutela penale dell'ambiente6 contiene riferimenti alla necessità di utilizzo sia di strumenti investigativi efficaci e proporzionati, inclusi quelli utilizzati per contrastare la criminalità organizzata o per altri gravi reati (articolo 13, sia di adeguate tecniche e tecnologie di contrasto ai crimini ambientali (articolo 17), sia, infine, di adeguata formazione al riguardo di giudici, pubblici ministeri e personale di polizia (articolo 18).
L'emanazione di questi due provvedimenti consente di chiudere la prima parte dello studio nei suoi aspetti operativi e giuridici, per tracciare, infine, le prospettive di ulteriore prosecuzione della ricerca.
2)
IA e scenari ambientali globali
Prima di esaminare il tema specifico dello studio sembra utile accennare alle varie possibili applicazioni dell'IA nel vasto campo della tutela dell'ambiente.7
La sintesi più efficace degli obiettivi che è necessario perseguire per raggiungere il traguardo dello sviluppo sostenibile è rappresentata dagli Sustainable Development Goals indicati nell'Agenda 2030 per lo sviluppo sostenibile adottata da tutti i paesi membri delle Nazioni Unite nel 2015. In tale documento è chiarito come l'obiettivo di sostenibilità, già declinato nel rapporto "Our Common Future" pubblicato nel 1987 dalla Commissione mondiale per l'ambiente e lo sviluppo delle Nazioni Unite (Commissione Bruntland), sia raggiungibile solo attraverso uno sforzo congiunto mirato a porre rimedio non solo ai più gravi problemi ambientali ma anche ai più significativi disequilibri sociali, economici, sanitari e sull'uso delle risorse presenti a livello mondiale8.
Il tema di come l'IA possa porsi in relazione al conseguimento dei 17 obiettivi indicati dall'Agenza 2030 è affrontato in uno studio specifico analitico, che descrive una situazione complessa e, per certi aspetti imprevedibile, in cui l'IA da un lato può essere considerata come uno strumento utile ma, da un altro, addirittura un rischio se non un ostacolo per lo sviluppo sostenibile9, tanto che l'AI Act si preoccupa (articolo 95) di evidenziare l'esigenza della valutazione e riduzione al minimo dell'impatto dei sistemi di IA sulla sostenibilità ambientale, anche per quanto riguarda la programmazione efficiente sotto il profilo energetico e le tecniche per la progettazione, l'addestramento e l'uso efficienti dell'IA, in un quadro di rispetto con il "benessere sociale e ambientale" concetto da intendersi nel senso che "i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia" (cons. 27), con la conseguente opportunità di "incoraggiare una rappresentanza equilibrata degli interessi che coinvolga tutti i portatori di interessi pertinenti nell'elaborazione delle norme, in particolare le Pmi, le organizzazioni dei consumatori e i portatori di interessi in materia sociale e ambientale conformemente agli articoli 5 e 6 del regolamento (Ue) n. 1025/2012" (cons. 121)10.
I cambiamenti climatici trovano poi un posto preminente tra gli scenari globali frequentemente fatti oggetto di studi e valutazioni che involvono l'uso di strumenti di IA11 12. La lotta ai cambiamenti climatici è articolata in una serie di azioni mirate, sui diversi fronti, alla riduzione delle emissioni di gas clima-alteranti, ma anche all'adattamento alle nuove condizioni climatiche ed alle loro conseguenze. Sistemi di IA sono in grado di ottimizzare una varietà di fattori, dalla produzione e distribuzione dell'energia sino alla gestione dei disastri ambientali, risolvendo problemi di valutazione e computazionali più difficili da affrontare attraverso sistemi di calcolo più tradizionali. La comunità tecnica, scientifica, dei pubblici amministratori e delle imprese è sollecitata a fornire il proprio contributo sul tema dei cambiamenti climatici attraverso lo sviluppo e l'uso di appositi sistemi di IA13. Sono infatti comunque presenti ostacoli e resistenze per lo sviluppo di tali sistemi da impiegare su questo fronte14.
Il ruolo cruciale dell'IA nella gestione degli scenari globali ambientali è riconosciuto, e ulteriormente promosso, anche a livello delle più importanti organizzazioni mondiali a sfondo economico, come il World Economic Forum, che traccia una strategia in cui l'utilizzo della IA rappresenta un potente strumento di contrasto alle maggiori sfide ambientali, che però può essere impiegato in modo ottimale solo sulla base di un'alleanza tra i governi, il mondo della ricerca e dell'economia, nella prospettiva di promuovere la "quarta rivoluzione industriale"15.
D'altro canto, l'Organizzazione per la cooperazione economica e la cooperazione (Oecd) si è impegnata profondamente sul tema dell'IA, con l'obiettivo di costruirne una visione sia concettuale che pratica, a supporto dello sviluppo delle politiche dei Paesi aderenti all'Organizzazione, prendendo in considerazione sia aspetti tecnici, sia il tema dell'affidabilità dell'IA, sia dell'etica del suo impiego.
È tra l'altro forte l'interesse verso l'IA degli studiosi della sicurezza ambientale, concetto complesso che contempla vari aspetti dell'impatto dell'ambiente sull'uomo, includendo tanto i temi della sostenibilità e dei cambiamenti climatici, quanto quelli dell'uso dell'IA in complessi scenari comunque collegati all'ambiente: dal prelievo delle risorse naturali alla gestione dell'informazione, in un quadro estremamente articolato nel quale compaiono, oltre a temi più direttamente legati alla protezione dell'ambiente, anche fattori geopolitici e militari16.
Prendendo in considerazione tematiche più specifiche, ma comunque di impatto globale, si porta l'esempio dell'Agenzia Europea per l'Ambiente, che suggerisce l'uso di strumenti digitali, in generale, e dell'IA in particolare nelle diverse aree del ciclo della gestione dei rifiuti17.
Anche per la P.a. l'utilizzo dell'intelligenza artificiale per la gestione delle questioni ambientali e dei relativi procedimento può essere una storica occasione di modernizzazione ed efficienza18.
È comunque in corso una continua ricerca di campi di applicazione di sistemi di IA, tra cui la predizione ed il contrasto di eventi naturali avversi, l'aggregazione di dati di diverse fonti di dati per creare sinergie informative prima impensabili, l'impianto di strumenti di intelligenza artificiale su tecnologie tradizionali per l'ottimizzazione delle prestazioni ambientali di sistemi complessi19.
Anche le imprese, comunque, si affacciamo all'uso dell'IA per migliorare il loro livello di compliance ambientale. Ciò può rappresentare un deciso vantaggio, ma implica numerosi, non indifferenti rischi, anche di carattere legale, in caso di fallimento dei sistemi di IA nello svolgere o supportare determinate mansioni a sfondo ambientale; emerge, tra l'altro, un non trascurabile problema di responsabilità legale per le imprese, di non semplice soluzione20.
Il tema dell'uso dell'IA nel contrasto dei crimini ambientali è di grande interesse e uno spunto di ispirazione e di analisi critica è rappresentato dallo studio delle esperienze nell'uso della IA nelle tradizionali attività di polizia, nell'enforcement e nella giurisdizione a contrasto della criminalità. In queste esperienze, a fronte di un'incontestabile efficacia delle tecniche utilizzate, si incrociano temi tecnici di grande spessore e temi giuridici ed etici, centrati sulla questione dei diritti fondamentali delle persone e di interi gruppi sociali, esposti a pratiche critiche come la profilazione e l'analisi di rischio, anche a fini predittivi21 22.
Una sintesi efficace del complesso panorama dell'uso dell'IA, dei suoi vantaggi e potenzialità, ma anche delle criticità e rischi, specie nei confronti dei diritti fondamentali delle persone è contenuta nell'Interim Report "Governing AI for Humanity" del dicembre del 2023 redatto dall' Advisory Body on Artificial Intelligence delle Nazioni Unite, che mette in luce, tra l'altro, le potenzialità dell'IA nel contrasto ai cambiamenti climatici23.
Comunque, il tema del bilanciamento, a livello giuridico, della protezione dei diritti della persona e degli interessi generali nell'uso di strumenti digitali avanzati ricorre regolarmente ed occupa una posizione di primo piano nella discussione sul diritto ambientale europeo e nazionale24.
Infine, l'uso dell'IA nel contrasto ai reati ambientali e della relativa giurisdizione penale è oggi, tutto sommato, limitato, sia a causa di alcuni deficit strutturali, quali la disponibilità adeguata di dati su cui fondare l'addestramento degli strumenti di IA, sia di tipo culturale, vista la difficoltà che si incontra nel sostituire pratiche di controllo ispettivo ambientale tradizionali con tecniche magari più moderne ed efficaci, delle quali, però, talvolta sfugge la logica e il cui impiego presuppone una ristrutturazione, alquanto radicale, nel modo di impostare e realizzare le attività di indagine e la pianificazione e la programmazione delle attività ispettive25.
L'esperienza italiana nell'uso di strumenti di IA nel campo della protezione ambientale e nello studio dei temi giurisdizionali correlati rappresenta, anche confrontata con altre simili a livello internazionale, un punto di riferimento. Questo presupposto e la ricerca di soluzioni per progredire ulteriormente nell'uso delle tecniche di IA in campo ambientale sono alla base degli approfondimenti che seguono, incentrati sulla ricerca di pratiche e modelli da implementare nella realtà nazionale, anche con un confronto a livello internazionale, utile nella prospettiva di creare favorevoli sinergie.
3)
Intelligenza Artificiale e controlli ambientali
Affacciarsi al tema dell'IA, specie dal punto di vista delle attività di controllo ambientale e della loro giurisdizione, richiede il chiarimento di alcuni concetti, compreso lo stesso significato attribuibile al termine.
Ciò è necessario sia per considerare correttamente il campo di applicazione dell'AI Act, ma anche per mettere in evidenza quali siano le problematiche da affrontare nel suo uso, di cui è necessaria piena consapevolezza specie per l'impiego di questo strumento in campo giurisdizionale.
La definizione recata dall'AI Act (articolo 3, n. 1) di "sistema di IA" è “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Tale definizione, nel perimetrare il campo di applicazione dell'AI Act, mette in evidenza delle peculiarità che costituiscono contemporaneamente gli elementi di rischio da assoggettare a controllo, secondo la visione dell'Unione Europea.
In essa sono evidenziate le caratteristiche di autonomia, di finalizzazione a risultati che superano gli scopi originali prefissati, di autoapprendimento anche da tali risultati e di lavoro secondo una logica inferenziale che produce autonomamente regole di analisi sulla base dello spicchio della realtà somministrata come materiale di addestramento.
Questi elementi costituiscono certamente rischi rilevanti per il rispetto dei diritti della persona, come previsto dalla Carta Europea dei diritti fondamentali, ulteriormente amplificati quando l'uso della IA viene effettuato per motivi di polizia e all'interno di un procedimento giudiziario, specie in modo meccanico e non perfettamente consapevole.
Gli aspetti richiamati si riflettono anche sul tema specifico della tutela amministrativa e penale dell'ambiente, che rappresenta un campo, non solo potenziale, di applicazione dell'Intelligenza Artificiale.
4)
L'Intelligenza Artificiale per la compliance e la giurisdizione ambientale: le principali aree di attività e di sviluppo
L'esperienza nazionale nell'uso dell'Intelligenza Artificiale nel campo del controllo della conformità alla normativa in campo ambientale, nonché gli studi effettuati anche sul tema della giurisdizione penale ambientale, hanno permesso di acquisire una visione ampia dell'uso dell'IA in questo settore, anche a livello internazionale. In questa sede, comunque, saranno trattati anche strumenti di Data Analytics non strettamente corrispondenti alla definizione di IA dell'Unione europea, che comunque rappresentano applicazioni avanzate, frequentemente innovative, di grande utilità nel campo della tutela dell'ambiente.
Tra le applicazioni di sistemi di IA nel campo della giurisdizione ambientale sono presenti:
- Analisi di Rischio (Risk Assessment): l'obiettivo in questo caso consiste nella stima preventiva del rischio attribuibile ad un soggetto, nei casi studiati essenzialmente persone giuridiche, per la commissione di un reato in campo ambientale;
- Analisi di dati (Data Analytics): la tecnica è mirata ad individuare anomalie, correlabili a violazioni e falsificazioni in complessi insiemi di dati;
- Visione Artificiale (Computer Vision): con la quale è possibile dare un significato ad immagini digitali, per tutti gli scopi per i quali un esame morfologico di “oggetti” può essere rilevante ai fini della protezione ambientale.
Di queste tecniche verranno forniti esempi e indicate possibili aree di sviluppo.
Un'altra tecnica basata su IA applicata nel contrasto alla criminalità comune che può essere di ispirazione per l'allestimento di strumenti utili anche in campo ambientale è quella della Polizia Predittiva (Predictive Policing), utilizzata per programmare azioni di prevenzione e di contrasto al crimine su base territoriale, in base all'identificazione di zone a rischio.
Altri sistemi basati su IA possono contribuire allo svolgimento di indagini penali anche in procedimenti ambientali, senza tuttavia rappresentare uno strumento specifico per quest'area:
- Elaborazione del Linguaggio Naturale(Natural Language processing): comprensione di parole e di testi, restituzione in forma digitale;
- Riconoscimento Vocale (Speech Recognition): interpretazione del parlato e traduzione in un testo;
- Programmi di IA generativi: produzione automatica di elaborati (testuali, di immagini o altro sulla base istruzioni formulate in modo semplice ed intuitivo, anche attraverso il linguaggio naturale).
Si possono ipotizzare impieghi di queste applicazioni, non solo in campo ambientale, per il supporto alla attività desk degli operatori, quali la redazione di report e verbali e la digitalizzazione di informazioni disponibili in forma cartacea, per l'alimentazione automatica, previa estrazione delle informazioni di interesse, di database specifici a partire da un patrimonio informativo altrimenti inaccessibile. Questo tipo di attività può, di conseguenza, contribuire ad ottimizzare l'impiego delle risorse umane, ad ampliare anche notevolmente l'insieme delle informazioni utilizzabili ed a mettere a disposizione anche di operatori non specializzati risorse informatiche non diversamente a loro accessibili.
5)
L'Analisi di rischio e la pianificazione dei controlli
5.1)
Introduzione
La pianificazione di regolari campagne di controlli ispettivi, sia di carattere amministrativo che diretti all'accertamento di violazioni penali, rappresenta una significativa sfida per le Autorità poste a presidio della qualità dell'ambiente. Tra le criticità è rilevabile la scarsità delle risorse umane disponibili e la conseguente necessità di ottimizzarne l'impiego.
In passato, la pianificazione è stata effettuata essenzialmente attraverso una logica di estrazione casuale o basata sulla esperienza degli operatori. Più recentemente, la prima tecnica è stata considerata come poco efficace per la ricerca ed il contrasto alle situazioni più gravi, mentre la seconda eccessivamente basata su elementi soggettivi e di conseguenza non sempre dotata della necessaria trasparenza.
Le esigenze, coesistenti, di ottimizzare l'impiego delle risorse a disposizione da un lato e di renderne più efficace l'azione hanno prodotto diverse filosofie e metodologie.
5.2)
L'approccio europeo all'analisi di rischio aziendale di non conformità
L'approccio dell'Unione europea per la pianificazione dei controlli obbligatori nelle aziende di maggiore dimensione e rischio ambientale, che ricadono nel campo di applicazione della direttiva Ied26, vede come elemento centrale l'intensificazione dei controlli sulle aziende a maggior rischio ambientale, definendo appositi criteri. In particolare, l'articolo 23, comma 4, della direttiva prevede che la valutazione sistematica dei rischi ambientali è basata almeno sui criteri seguenti: a) gli impatti potenziali e reali delle installazioni interessate sulla salute umana e sull'ambiente tenendo conto dei livelli e dei tipi di emissioni, della sensibilità dell'ambiente locale e del rischio di incidenti; b)il livello di osservanza delle condizioni di autorizzazione; c) la partecipazione del gestore al sistema previsto dal regolamento (Ce) n. 1221/2009 del Parlamento europeo e del Consiglio, del 25 novembre 2009, sull'adesione volontaria delle organizzazioni a un sistema comunitario di ecogestione e audit (Emas).
La previsione è ripresa dall'articolo 29-decies, comma 11-bis, T.u.a.
Ciò ha generato l'opportunità di predisporre strumenti di valutazione, con diverso grado di automazione che, in base a dati aziendali e di contesto ambientale, permettesse la predisposizione di “graduatorie di rischio” da utilizzare per la definizione di programmi di controllo.
Si vedano, ad esempio, la metodologia Iram, prodotta dal Network Europeo Impel27 e la metodologia Sspc, approvata dal Consiglio federale del Sistema nazionale per la protezione dell'ambiente (Snpa) con deliberazione 63/CF del 15 marzo 201628.
Tali metodologie, automatizzate, possono essere ritenute di Intelligenza Artificiale secondo le definizioni di Turing e di McCarthy, ma sfuggono ai criteri dell'AI Act che prevede invece la presenza di meccanismi di autoapprendimento e l'assenza di un controllo umano sugli algoritmi utilizzati per fornire il risultato richiesto. Tra l'altro, l'implementazione di un sistema di AI-Machine Learning (ML) basato sui criteri indicati dalla direttiva Ied richiederebbe la disponibilità, in forma digitale, di una quantità di informazioni certamente non disponibili se non, forse, in un numero molto limitato di paesi dell'Ue.
Più recentemente comunque, il Dlgs n. 103/202429, nel dettare disposizioni in tema di semplificazione dei controlli di tipo amministrativo svolti dalle pubbliche amministrazioni sulle attività economiche, all'articolo 9 prevede, da parte delle amministrazioni cui sono attribuite funzioni di controllo in materie diverse da quella fiscale, l'adozione di misure volte ad automatizzare progressivamente le attività di controllo ricorrendo a soluzioni tecnologiche, ivi incluse quelle di intelligenza artificiale, in coerenza con il principio di proporzionalità al rischio. Tale indicazione è riferita a diversi settori, tra cui quello della protezione ambientale (articolo 3), nel quale può rappresentare una decisa ed efficace risposta all'attuale situazione di sostanziale inapplicabilità di un programma di controlli sulla totalità delle aziende, specie su quelle non soggette alla direttiva Ied.
Gli esempi che seguono, di conseguenza, rappresentano importantissimi casi di studio per la applicazione di sistemi di AI per la programmazione dei controlli ambientali anche nel nostro Paese, sia per la prospettazione dell'efficienza e dell'efficacia di tali sistemi, ma anche per quanto concerne la conoscenza delle condizioni abilitanti per l'uso di questa metodologia e delle criticità correlate.
5.3)
Esperienze di analisi di rischio per la pianificazione dei controlli ambientali negli Stati Uniti: il caso dei rifiuti e degli scarichi
L'approccio utilizzato negli Stati Uniti, pur partendo dalla comune esigenza di rendere sempre più efficace l'azione di controllo a fronte di un contenimento delle risorse a disposizione, è diverso per filosofia e metodologia rispetto alla scelta dell'Unione europea appena descritta. La scelta, di seguito descritta attraverso esempi, di convergere verso sistemi di pianificazione dei controlli basati su IA è, tra l'altro, resa possibile grazie al tipo e quantità di dati in formato digitale a disposizione che, per quanto appare, è ben più ampia di quanto sia nell'Unione.
Nel periodo 2013-2017 l'Agenzia per la protezione dell'ambiente statunitense (US EPA) ha implementato il programma Next Generation Compliance, mirato al miglioramento delle performances ispettive dell'Agenzia, attraverso l'uso di strumenti di Data Analytics per una programmazione mirata dei controlli.
Ciò ha generato l'incremento qualitativo e quantitativo del patrimonio di dati aziendali disponibili e degli esiti dei controlli, derivanti sia dall'attività ispettiva, che dagli autocontrolli. È stato infatti imposto alle aziende l'obbligo di trasmissione dei propri dati ambientali attraverso appositi portali informatici.
Il miglioramento generale del patrimonio informativo a disposizione ha permesso ad US EPA di costruire il sistema di archivi Echo (Enforcement and Compliance History Online30), tra l'altro accessibile anche ai cittadini, in una logica di trasparenza e di partecipazione attiva alla protezione ambientale, i quali contengono, la storia ispettiva delle aziende assoggettate alla normativa ispettiva statunitense, oltre ai dati caratteristici degli impianti.
La scelta strategica di US EPA è stata di usare i dati a disposizione per mirare i controlli verso le aziende ritenute a maggiore rischio di infrazione utilizzando a questo scopo sistemi di AI -Machine Learning.
Un esempio di quest'approccio è rappresentato dalla pianificazione dei controlli relativi alla gestione dei rifiuti solidi, pericolosi e non pericolosi, nel quadro del Resource Conservation and Recovery Act – Rcra statunitense31.
Sono stati utilizzati, sperimentalmente, quattro differenti sistemi di Machine Learning basati su algoritmi di tipo Random Forest. Talisistemi sono fondati sull'uso di una pluralità di alberi di eventi che si costruiscono autonomamente nel processo di addestramento, realizzato alimentando il sistema con le informazioni relative ad un ampio gruppo di soggetti presi ad esempio, di cui si conoscono sia le caratteristiche sia il comportamento, ad esempio "ha commesso o no un reato". Tale gruppo di soggetti è definito come Training Set. Il risultato è ottenuto usando i vari alberi di eventi costruiti nell'addestramento (la “foresta”) come filtro ai dati caratteristici del soggetto da analizzare. L'uso di Random Forest Algorithm minimizza gli errori tipici legati all'uso di singoli alberi di eventi e massimizza l'efficacia della tecnica32.
Tramite tale utilizzo, le aziende del settore sono state profilate da US EPA per attribuire ad ognuna di esse un indice di rischio di non conformità. L'algoritmo di ML è stato addestrato estraendo il Training Set dai database di dati storici, accumulati in 15 anni di attività ispettiva, contenenti dati riferibili a moltissime osservabili, come le caratteristiche tecniche e operative degli impianti, la loro collocazione, i trasporti effettuati ed altre ancora; i dati aziendali sono stati accoppiati alle informazioni relative ai controlli svolti in passato, alle violazioni rilevate e alle azioni giudiziarie attivate, anch'esse in disponibili in formato digitale.
I confronti e le correlazioni effettuate autonomamente dai sistemi di ML sul Training Set hanno messo tali sistemi in grado di produrre, altrettanto autonomamente, algoritmi per l'attribuzione di un indice di rischio di non conformità alle aziende (in pratica una profilazione espressa in termini sintetici), rendendo possibile la redazione di una classifica di priorità per il controllo degli impianti.
Il sistema è stato sottoposto a test di efficacia analizzando, retrospettivamente, un sottoinsieme delle aziende di cui erano disponibili dati storici e verificando la capacità di individuare i casi in cui era effettivamente stata rilevata una violazione. Il test ha dimostrato che la programmazione dei controlli attraverso ML avrebbe potuto portare al 56% il numero di violazioni individuate nel corso di una campagna rispetto al 38% relativo alla programmazione di tipo tradizionale.
Tecniche di ML sono inoltre utilizzate da US EPA per la pianificazione delle ispezioni nel settore della protezione delle acque, normato dallo USA Clean Water Act (CWA)33.
Anche in questo caso è stato utilizzato un algoritmo di ML del tipo Random Forest per costruire uno strumento di analisi di rischio. Il primo addestramento dell'algoritmo ha impiegato le informazioni estratte dai database contenuti in Echo: dalle 1.831.032 imprese catalogate al 2017 ne sono state estratte 316.030 dotate di un pacchetto di informazioni adeguato. Anche in questo caso, al sistema è stato richiesto di assegnare un indice di rischio di non conformità a tutte le aziende dotate di un'autorizzazione allo scarico e sulla base di tali indici è stata costruita una classifica per l'esecuzione dei controlli.
Il test effettuato, anche in questo caso esaminando retrospettivamente un gruppo di imprese estratto dal database storico, ha quantificato nel 94,1% la capacità di corretta previsione dell'esito, positivo o negativo, dei controlli.
5.4)
Criticità nella programmazione dei controlli attraverso "sistemi intelligenti"
I sistemi di programmazione dei controlli attraverso analisi di rischio realizzata attraverso sistemi di IA-ML espone ad una serie di criticità che devono essere accuratamente valutate nell'intraprenderne la progettazione e nel loro impiego.
Alcuni di questi rischi sono intrinseci nell'uso degli strumenti di IA in generale: il contenuto dei Training Set è fondamentale per la qualità dei risultati prodotti. Si pone ad esempio un problema di coerenza spaziale e temporale dei Training Set rispetto all'ambito nel quale gli strumenti di IA saranno utilizzati. Ad esempio, Training Set in cui compaiono dati relativi a Paesi o Regioni con sistemi di regolazione amministrativi o penali diversi rispetto all'ambito territoriale di applicazione del sistema di IA possono produrre significativi bias. Conseguenze simili si possono verificare con l'uso nei Training Set di dati non aggiornati rispetto all'introduzione di novità normative o di contesto economico e sociale.
Alcune criticità sono invece relative all'impiego di programmi di controllo che, formulati esclusivamente attraverso metodi di IA, risultano, tutto sommato, molto rigidi e potenzialmente non corrispondenti ad alcune esigenze e senza riferimento ad alcune opportunità. Ad esempio, la predisposizione di programmi di controllo basati esclusivamente su meccanismi più o meno automatizzati può generare un effetto paradosso nella platea dei soggetti da controllare: considerato che sono attesi interventi ispettivi nella parte alta delle graduatorie di rischio, ciò può disincentivare comportamenti corretti nel pool delle imprese a cui sono attribuibili rischi più bassi.
Da un altro lato, una programmazione automatizzata basata su presupposti fissati a priori può essere non coerente con le politiche di controllo ambientale delle autorità competenti, che potrebbero legittimamente voler inserire elementi di priorità legati a situazioni locali particolari, anche di tipo sanitario, o emergenti, come nel caso dell'esigenza di dover fare urgentemente fronte a forme particolari di inquinamento o a situazioni di illegalità, anche di tipo criminale, che richiedono la rappresentazione di tali problematiche anche nei piani di controllo.
Un sistema di IA, fornendo criteri di pianificazione dedotti dalla lettura della realtà presente nel campione di addestramento, nei quali i casi di speciale interesse potrebbero non essere statisticamente significativi, non sarebbe in grado di interpretare quest'esigenza.
Questo tipo di criticità può essere tenuto sotto controllo con iniziative di vario tipo, ad esempio con complesse operazioni di regolazione e messa punto, che richiedono comunque la condivisione tra i diversi Stakeholders presenti nella catena della conformità ambientale del disegno, dei dati e delle correzioni da utilizzare per lo sviluppo dei sistemi di IA-ML.
Può essere inoltre considerata l'opportunità di formulare programmi di controllo “ibridi”, nei quali una quota dei controlli da realizzare può essere scelta con tecniche di IA, una quota attraverso estrazione casuale e altre quote sono riferibili ad esigenze e criteri rappresentati dagli Stakeholders pubblici in base alle rispettive necessità.
6)
Data Analitytics: il trattamento dei dati alla ricerca di non conformità
Le banche dati possono rappresentare un eccellente fonte di informazioni, tanto a supporto della programmazione dell'attività di controllo, come appena visto, ma anche per la realizzazione di indagini, per la ricerca di relazioni e la verifica di ipotesi nel campo della giurisdizione penale ambientale.
L'IA si presenta come uno strumento ottimale per tali compiti, eliminando alla radice i complessi sistemi di programmazione e di messa a punto di query idonee, tradizionalmente necessari per ricavare le informazioni di interesse dalle basi di dati disponibili.
Al momento non sono disponibili informazioni relative all'uso reale di questo tipo di sistemi di IA nel campo della giurisdizione ambientale.
Un approfondimento del tema è stato recentemente svolto nel citato studio promosso dalla Fondazione Occorsio.
Oltre all'analisi delle esperienze presenti sia a livello nazionale che internazionale, si è approfondito il tema delle potenzialità offerte per l'identificazione di illegalità e la prevenzione dei reati nella filiera dei rifiuti, a partire da informazioni presenti nei database dedicati italiani.
L'obiettivo della ricerca è stato la valutazione della praticabilità tecnica e giuridica dello sviluppo di programmi di analisi dei database nazionali a scopo di indagine e investigazione, oltre che per la programmazione dei controlli.
Infatti, è attraente l'ipotesi di poter identificare, attraverso sistemi di Data Analytics avanzati, nessi e relazioni in prima approssimazione non evidenti tra situazioni, operazioni di vario tipo e soggetti nell'ambito di indagini penali, oltre che per estendere la visuale sulle responsabilità implicate nei reati perseguiti e per una ricerca mirata di prove. L'attività di Data Analytics può supportare inoltre operazioni di Predictive Policing (Polizia Predittiva) a supporto del dispiegamento di mezzi e risorse per la prevenzione di alcuni fenomeni criminali a base territoriale come, ad esempio l'allocazione depositi discariche abusive di rifiuti.
Le attività della Fondazione sono state mirate alla individuazione ed alla analisi preliminare dei data base presenti, nel settore dei rifiuti, nelle diverse aree dalla Pubblica Amministrazione che potrebbero essere utili allo scopo indicato.
Il patrimonio informativo nazionale è ampio ed articolato, comprendendo varie basi di dati, relative a tutte le principali fasi della gestione dei rifiuti, dalla loro produzione, al trasporto e allo smaltimento finale, la cui idoneità ad essere impiegate in sistemi di IA andrà comunque analizzata più puntualmente. In questa sede è sufficiente ricordare che le banche dati sul tema dei rifiuti presenti in Italia coprono il settore della loro produzione (Banca Dati Mud, Unioncamere), trasporto (Albo nazionale dei gestori ambientali, Mase), ispezioni sulle spedizioni di rifiuti (Sisped, Mase), mappano la situazione delle autorizzazioni e della loro gestione (Catasto Rifiuti, Ispra), descrivono il quadro locale (Orso – Osservatorio rifiuti sovraregionale, Regioni, Enti Locali, componenti del Snpa). Interessante l'esperienza di un catasto georeferenziato degli impianti (Cgr Web Lombardia, Regione Lombardia). Nel citato studio si era prospettata la realizzazione di una banca dati nazionale in materia di criminalità ambientale per consentire un approccio molto più "selettivo" del materiale rispetto alla consultazione della sola banca dati Sidda-Sidna, la quale oltre a includere solo dati relativi al delitto di cui all'articolo 452-quaterdecies c.p. (di competenza della Dda), contiene molto "rumore", ossia dati che non pertengono allo specifico tema della criminalità ambientale e che complicano la ricerca.
Può essere inoltre prevista l'associazione di altri database utili per aumentare lo spettro dei predittori utilizzabili nelle analisi condotte con sistemi di ML. Sono certamente utili, ad esempio, data base contenenti informazioni georeferenziate sulla localizzazione di siti ed impianti ritenuti di interesse, informazioni sulla qualità ambientale, sulla presenza di hot spot di inquinamento potenzialmente correlabili a situazioni di illegalità, sui catasti immobiliari e su altri dati amministrativi e di tariffazione di servizi pubblici, e indicatori demografici e, aspetto molto delicato, anche indicatori epidemiologici potrebbero costituire indicatori territoriali di interesse.
Occorre inoltre verificare la disponibilità, in forma accessibile digitalmente, di informazioni sull'attività di polizia amministrativa e dell'attività giurisdizionale nel settore dei rifiuti.
Infatti, per l'allestimento di un efficace sistema di IA in questo campo è cruciale che il relativo Training Set veda la presenza di soggetti con un profilo giudiziario rilevante dal punto di vista dei reati che si intende considerare e ciò richiede l'accesso agli opportuni database, con tutte le criticità del caso: sul tema occorre venga aperta una specifica riflessione.
Le sfide da affrontare, e le criticità da superare, per avviare l'applicazione di sistemi di IA in questo settore, in Italia, sono comunque significative: visti i risultati delle valutazioni preliminari è necessario, ad esempio, avviare un percorso teso a migliorare qualità, ampiezza, coerenza e accessibilità dei database nazionali per abilitarli all'uso di strumenti di IA nel settore della prevenzione e della giurisdizione penale nel campo dei rifiuti ma anche, più in generale, dell'ambiente.
7)
Il contrasto alla falsificazione degli autocontrolli: il caso degli Stati Uniti e le possibili applicazioni agli impianti soggetti ad Aia
Lo studio delle esperienze statunitensi ha messo in luce un altro interessante esempio di applicazione di strumenti di IA e di Data Analytics più generale, per la ricerca di falsificazioni nei dati degli autocontrolli trasmessi dalle aziende a US EPA.
L'autocontrollo e la trasmissione in formato elettronico dei dati relativi alle autorità competenti è uno dei pilastri della strategia disegnata dalla Next Generation Compliance ambientale statunitense.
La realizzazione di autocontrolli e la trasmissione dei loro esiti all'Ente competente è un interessante strumento di responsabilizzazione delle aziende ed aumenta il patrimonio conoscitivo su cui basare iniziative ispettive e politiche pubbliche, ma espone al rischio di falsificazioni, visto che i risultati degli autocontrolli sono uno dei parametri utilizzati negli Stati Uniti per la pianificazione delle ispezioni. L'alterazione di dati trasmessi all'Autorità competente configura, anche negli Stati Uniti, una responsabilità di tipo penale per l'intera catena gestionale aziendale che ha contribuito alla falsificazione e la disponibilità di un sistema di screening delle falsificazioni rappresenta un notevole elemento di deterrenza.
La verifica sulla falsificazione dei dati è, ad esempio, applicata ai Discharge Monitoring Report (DMR), contenenti gli esiti degli autocontrolli che devono essere trasmessi periodicamente ad US EPA dai titolari di impianti autorizzati a scarichi in corpo idrico superficiale.
La ricerca di anomalie nei dati trasmessi viene effettuata attraverso filtri statistici estratti dall'analisi di un numero elevato di DMR: possono infatti essere definiti profili tipici standard dei valori analitici, ad esempio di andamento temporale e di relazione tra i vari inquinanti. Il discostamento da questi profili, come con il troncamento ed appiattimento in prossimità dei valori limite o un andamento irregolare delle sequenze temporali possono essere sintomo di un'alterazione volontaria dei dati trasmessi. La rilevazione automatica di anomalie nei dati trasmessi non rappresenta, di per sé stessa, motivo di sanzionamento, ma aumenta il livello di rischio attribuito all'azienda per la programmazione delle attività ispettive vere e proprie. Oltre a strumenti statistici tradizionali, la grande disponibilità di dati ed esempi è considerata una buona base per allestire anche sistemi di verifica basati su IA-ML.
Il caso può collocarsi nell'ampio dibattito relativo al tema degli autocontrolli ambientali, per altro previsti in Europa dalla direttiva Ied e da altri corpi normativi, e del loro valore ai fini dell'assicurazione della conformità alla legislazione ambientale. Un efficace metodo di screening dei dati può consolidare l'affidabilità dell'autocontrollo e rendere più efficaci e tempestive le azioni di enforcement.
Il tema è rilevante anche nell'applicazione del Testo Unico ambientale, il quale prevede in diversi casi la comunicazione dei dati emersi in sede di autocontrollo. Basti pensare alla disciplina dell'autorizzazione integrata ambientale in cui il superamento dei limiti di emissione può dipendere, oltre che dall'accertamento emerso nell'ambito delle ispezioni da parte dell'autorità di controllo o degli organi di vigilanza (articolo 29-decies, rispettivamente commi 4 e 7, T.u.a.), anche dalla emersione della violazione dei valori limite di emissione in sede di autocontrollo da parte del gestore, attività disciplinata dall'articolo 29-decies, comma 2, secondo cui a far data dall'invio della comunicazione di avvio dell'installazione, il gestore trasmette all'autorità competente e ai comuni interessati, nonché all'ente responsabile degli accertamenti, i dati relativi ai controlli delle emissioni richiesti dall'autorizzazione integrata ambientale, secondo modalità e frequenze stabilite nell'autorizzazione stessa.
La corrispondente disciplina sanzionatoria è prevista dall'articolo 29-quattuordecies:
- al comma 8, che prevede come illecito amministrativo l'omessa comunicazione dei dati relativi alle misurazioni delle emissioni di cui all'articolo 29-decies, comma 2;
- al comma 9, che prevede l'applicazione della pena di cui all'articolo 483 c.p. se con tale comunicazione il gestore fornisca dati falsificati o alterati.
Si pone la questione se il reato di violazione delle prescrizioni sia configurabile qualora il superamento dei limiti delle emissioni emerga in sede di autocontrollo e venga a conoscenza dell'Amministrazione a seguito della obbligatoria comunicazione dei dati da parte del gestore della installazione.
La Cassazione34 ha ritenuto che "la violazione delle prescrizioni ben può scaturire dalla comunicazione obbligatoria da parte del gestore dell'impianto dei risultati in sede di autocontrollo, essendo, il gestore, soggetto tenuto all'effettuazione di analisi in sede di autocontrollo e poi all'inoltro dei dati così rilevati e, in tale ambito, la previsione della sanzione penale è coerente con la ratio legis e si colloca a chiusura della disciplina di settore che pone obblighi precisi, indicati nell'Aia, al gestore dell'impianto che è tenuto a procedura di autocontrollo, e costituisce un presidio sanzionatorio all'osservanza delle prescrizioni imposte nell'Aia, con la punizione dell'inosservanza alle prescrizioni imposte a tutela dell'ambiente. Quanto alla responsabilità connessa alla posizione del gestore che è destinatario della richiesta di inoltro dei dati, in esito a procedure di autocontrollo, essa non contrasta con il diritto costituzionale di difesa sul presupposto che, in tal modo, si imporrebbe agli stessi un obbligo di possibile autodenuncia, in quanto le suddette richieste derivano da specifici obblighi normativi per consentire lo svolgimento della vigilanza amministrativa demandata agli organi indicati nel comma 3, e, come tali, da un lato assoggettano l'imprenditore allo stesso trattamento riservato a ogni cittadino sottoposto ad atti di controllo amministrativi per fini di interesse generale. Non di meno, dal tenore delle norme di settore e dal riferimento alla "tolleranza" per frequenza e entità, non c'è alcuna automaticità che potrebbe avere profili di dubbia compatibilità con il diritto di difesa, nel senso che la sanzione penale, non consegue al mero dato del rilevamento in sede di autocontrollo del superamento, nel nostro caso, delle emissioni, ma dalla complessiva valutazione, cui è tenuto il giudice del merito, anche a fronte delle allegazioni difensive, dei dati provenienti dal sistemi di autocontrollo e della tolleranza delle violazioni".
8)
Visione automatica e contrasto ai reati ambientali
8.1)
La Earth Observation in generale
Tra le innovazioni più rilevanti nel campo ambientale degli ultimi decenni trova posto l'impiego di immagini della superficie terrestre per la ricerca di criticità della più varia natura: da fenomeni legati al cambiamento climatico al monitoraggio alla ricerca di crimini: l'osservazione terrestre (Earth Observation) è ormai uno strumento insostituibile in molti settori. È oggi disponibile un imponente patrimonio, anche aggiornato in tempo reale o "quasi reale" di immagini terrestri, rilevate attraverso satelliti o mezzi o aerei, per lo studio di un grandissimo numero di criticità ambientali, a condizione che esse siano in grado di produrre impronte visive rilevabili dal cielo. È disponibile, sia gratuitamente che a pagamento, attraverso Provider di servizi, pubblici o privati, un vastissimo inventario di immagini della terra, riprese in varie bande spettrali e con diversi gradi di risoluzione.
Il programma Copernicus gestito dalla Commissione Europea rappresenta una importantissima fonte di immagini terrestri, rilasciate a titolo gratuito, per il campo della protezione ambientale. Altri provider pubblici e privati rendono disponibili immagini terrestri con un livello di risoluzione migliore di 30 cm per le immagini satellitare e tempi di acquisizione da alcuni giorni ad alcune settimane.
Nel nostro Paese vanno tenute presenti le prospettive di sviluppo dei Sistemi informativi geografici (c.d. Gis: Geographic Information System) — applicazioni della geomatica, ossia della disciplina che integra lo studio del territorio e dell'ambiente con l'informatica — nonché di attuazione del Ren, il Registro elettronico nazionale per la tracciabilità dei rifiuti istituito dalla legge 11 febbraio 2019 n. 12.
Si può fare anche riferimento al repertorio nazionale dei dati territoriali, previsto dall'articolo 59 del Codice dell'amministrazione digitale (Dlgs n. 82/2005) ed al Dlgs 19 agosto 2005, n. 195 (Attuazione della direttiva 2003/4/Ce sull'accesso del pubblico all'informazione ambientale), che ha previsto all'articolo 8 una specifica disciplina per la raccolta e la gestione delle informazioni ambientali.
Indicazioni, queste, che trovano il loro sviluppo e completamento nel Pnrr — Piano nazionale di ripresa e resilienza. Le Missioni, nelle quali è articolato il Piano, includono i temi dell'innovazione, della digitalizzazione e della promozione dell'ambiente e della giustizia in stretta, sinergica correlazione. In particolare, la Missione M4C2, il cui Piano operativo è stato definito con il decreto del Mite del 29 settembre 2021 (Guri 20 ottobre 2021, n. 251), si propone di sviluppare un Sistema Avanzato di Monitoraggio Integrato del Territorio, destinato ad alimentare anche la fase di prevenzione e repressione degli illeciti ambientali rilevabili con tecniche di osservazione terrestre e georeferenziazione (satelliti, aerei).
Parallelamente, uno dei più grossi avanzamenti nel campo dell'IA consiste nello sviluppo della capacità di usare e interpretare, senza ulteriori mediazioni da parte dell'uomo, le stesse informazioni che possono essere acquisite dagli esseri viventi attraverso i propri sensi: la Visione Automatica (Computer Vision) è una di queste.
È stato fisiologico applicare tecniche di Computer Vision all'osservazione terrestre, con un significativo vantaggio in termini di risparmio di preziose risorse umane e di rapidità di responso. La disponibilità di strumenti di Computer Vision in grado di sostituirsi all'analisi visiva umana ha aperto, di conseguenza, notevoli prospettive per la lotta alle situazioni di illegalità, anche a livello ambientale.
L'uso di tecniche di Computer Vision risulta particolarmente efficace ed efficiente per l'esame di superfici estese della terra, oltre alcune diecine di chilometri quadrati, specie in un ambiente morfologicamente complesso, dove l'impegno umano risulterebbe parecchio oneroso.
Gli esempi di Computer Vision che seguono sono stati sviluppati, con finalità e contesti diversi, attraverso sistemi di Machine Learning comunque concettualmente simili. È stato impiegato, in entrambe i casi, un sistema di Deep Learning per l'analisi e categorizzazione di immagini basato su modelli di classificazione delle scene con l'uso di reti neurali convoluzionali (CNN).
I sistemi di Deep Learning rappresentano l'evoluzione dei sistemi di Machine Learning, in grado di identificare nessi e stabilire relazioni tra i diversi fattori in gioco, stratificandoli in categorie logiche e identificando nessi e stabilendo relazioni tra le informazioni contenute nei Training Set in modo più complesso ed efficiente rispetto al passato.
8.2)
Il caso della ricerca di allevamenti intensivi illegali negli Usa
Si è stimato che negli Stati Uniti gli allevamenti intensivi (Concentrated Animal Feeding Operations, Cafo) producono circa annualmente 350 milioni di tonnellate di reflui, immettendo in ambiente un eccesso di nutrienti, che generano un considerevole rischio ecologico e sanitario35 36 37. US EPA ha stimato inoltre che circa il 60% delle installazioni, al 2011, non era in possesso di autorizzazione per la gestione dei reflui zootecnici38.
Il controllo dell'efficacia di tecniche di Computer Vision per la ricerca di allevamenti, suinicoli ed avicoli, privi di autorizzazioni allo scarico è stata oggetto di uno progetto di ricerca specifico39.
I campioni di immagini, sia per l'allestimento del Training Set, sia per la verifica di efficacia del sistema sono stati ricavati dagli archivi del Programma nazionale per le immagini nel Settore dell'agricoltura (iniziativa del Dipartimento dell'agricoltura degli Stati Uniti) e sono accessibili online. Per lo sviluppo del sistema sono state scaricate tutte le immagini dello Stato del North Carolina, in forma di mosaico di elementi contenenti 299 x 299 immagini, con la risoluzione di 1 metro per pixel. La risoluzione è stata ritenuta sufficiente data la dimensione dei bersagli ricercati: stalle e capannoni.
Dal totale di 1.684.879 immagini a disposizione sono state estratte, dopo procedure di selezione, un totale di 24.440 immagini, di cui 3.385 relative ad allevamenti di pollame e 1.559 di suini; il totale delle immagini estratte sono state poi suddivise casualmente in tre gruppi come Training Set (60%), di validazione (15%) e test retrospettivo (25%).
Il sistema messo a punto restituisce il risultato della propria analisi sovrapponendo ad ognuna delle aerofoto analizzate aree colorate che rappresentano la probabilità che in quella porzione territoriale sia presente un insediamento del tipo ricercato. Ciò permette una rapida identificazione e verifica di conferma degli impianti sospetti da parte di operatori specializzati. Il sistema permette inoltre di ricavare in modo automatizzato le coordinate spaziali dell'impianto sospettato per facilitare la sua identificazione e verificarne la situazione amministrativa attraverso i database georeferenziati disponibili.
Il sistema ha dimostrato di poter erogare ottime perfomances.
Queste sono state misurati attraverso gli indicatori statistici in termini di precisione, pari al 91,7% per gli allevamenti di pollame e 92,35% di suini, e sensibilità e specificità, riassunti in un indicatore, in questo caso pari al 97,2% per gli allevamenti di pollame e al 98,6% per quelli di suini. Tali indicatori forniscono indicazioni per la stima dell'affidabilità del sistema e per la sua messa a punto, che può essere realizzata effettuando una "regolazione" delle soglie di sensibilità per l'attribuzione di positività (in questo caso: presenza di una violazione) per bilanciare gli eccessi di identificazioni non veritiere (falsi positivi) e dei casi positivi non identificati (falsi negativi).
La tecnica ha dimostrato di essere in grado di individuare, tra l'altro, il 15% di allevamenti in più di non quanto fosse stato possibile da parte di operatori umani. Lo studio ha inoltre stimato che l'impegno di risorse di personale necessario per il funzionamento del sistema di ricerca automatizzato è tra il 2% e il 10% di quanto necessario per una ricerca esclusivamente umana, in funzione della sensibilità desiderata.
8.3)
La ricerca di depositi illegali di rifiuti in Italia: il caso della Lombardia
L'esame di immagini satellitari o da sorvolo aereo si è dimostrato uno strumento molto efficace per la ricerca dei depositi e discariche illegali di rifiuti, come testimoniato dagli esiti del Progetto Savager (Sorveglianza avanzata gestione rifiuti), sviluppato da Arpa Lombardia, a partire dal 2018. Il progetto è stato, dopo la fase sperimentale approvato e finanziato dalla Giunta regionale della Lombardia decreto n. 4129 del 27 marzo 2019, con estensione triennale e successivamente rinnovato; esso era finalizzato, insieme ad altre iniziative, a prevenire il fenomeno degli incendi di depositi abusivi di rifiuti, attraverso la loro individuazione e messa in sicurezza preventiva.
Le prime attività di sperimentazione dell'efficacia del metodo, effettuate con l'esclusivo contributo di operatori specializzati, con l'esame di porzioni di territorio in provincia di Pavia, hanno dimostrato che riprese aeree di risoluzione adeguata permettono con ottima efficacia l'identificazione di situazioni di illegalità, ma a prezzo di una ricerca molto accurata e dispendiosa dal punto di vista delle risorse umane necessarie (il test ha previsto l'esame manuale nel territorio di 63 Comuni, per un totale di 1.357 chilometri quadrati, in provincia di Pavia, che ha portato a identificare 53 siti potenzialmente illegali, poi selezionati per lo svolgimento di attività ispettiva; il set di immagini utilizzato per il test è stato ripreso nello spettro visibile con una risoluzione migliore di 30 cm). L'attività di individuazione di accumuli e depositi di rifiuti è infatti particolarmente complessa, viste le difficoltà di riconoscimento dovute alla forte eterogeneità della morfologia dei rifiuti, la possibilità di confonderli con altri accumuli di materiali di forma irregolare, la diversificazione del contesto della loro possibile presenza: in campo libero o zone urbanizzate, in prossimità di insediamenti produttivi attivi o dismessi, in prossimità di immobili abbandonati.
I risultati dell'attività sperimentale, molto proficua, sono stati immediatamente motivo di dialogo tra Arpa Lombardia e la Procura della Repubblica di Pavia, competente per territorio, considerata l'esigenza di inquadrare i risultati delle ricerche effettuate nel contesto della giurisdizione penale, con un'opportuna selezione dei casi da sottoporre ad ispezioni con l'intervento della Polizia Giudiziaria e dei tecnici di Arpa Lombardia. I lineamenti della collaborazione tra Procura della Repubblica di Pavia ed Arpa Lombardia sono stati, tra l'altro, formalizzati in un apposito protocollo di intesa.
Lo studio preliminare sull'efficacia dell'osservazione terrestre nella ricerca di depositi illegali di rifiuti e un efficace inquadramento giurisdizionale dell'attività sono stati i prerequisiti del progetto di ampliare gradatamente l'indagine a tutto il territorio della regione
Con una superficie regionale di oltre 23.000 chilometri quadrati, di cui almeno il 30% potenzialmente esposti al rischio di ospitare depositi illegali, Arpa Lombardia ha deciso di conseguenza di sviluppare, in via sperimentale, tecniche di analisi automatica con strumenti di IA di fotografie aeree, con lo scopo di contenere il contributo umano nell'attività e renderla prospetticamente praticabile anche su superfici così ampie come strumento ordinario di sorveglianza preventiva e di allerta precoce.
L'attività di messa a punto del sistema e la successiva sperimentazione è stata realizzata in collaborazione con il Politecnico di Milano40. Come Training Set è stato utilizzato un insieme di 3000 immagini, delle quali il 30% era rappresentato da campioni positivi, selezionate da operatori esperti tra le immagini storiche a disposizione. Considerata la natura dei bersagli da analizzare, spesso costituiti da ammassi eterogenei e privi di una forma standard, è stato ritenuto necessario utilizzare immagini terrestri con risoluzione di 20 cm, acquisiti nel 2018 in tre provincie della Lombardia. Anche in questo caso è stato impiegato un sistema di Deep Learning di analisi e categorizzazione di immagini basato modelli di classificazione delle scene con l'uso di reti neurali convoluzionali (CNN).
I test statistici, effettuati retrospettivamente su un insieme di immagini costituito ad hoc, hanno anche in questo caso dimostrato grande efficacia ed efficienza del sistema. L'analisi della qualità delle prestazioni del sistema è stata effettuata in questo caso attraverso il descrittore statistico precisione, superiore al 94% al livello di sensibilità pari al 89%.
Come nel caso statunitense già descritto, i siti di potenziale interesse vengono messi in evidenza su mappa attraverso una scala cromatica che indica la probabilità di presenza di un deposito di rifiuti, che rende possibile un rapido controllo visivo da parte degli operatori.
L'esperienza raccolta con le prime attività ha dimostrato comunque la necessità di uno screening umano dei siti promossi dal sistema, per ridurre i falsi positivi ed effettuare una stima di priorità di intervento. La messa a punto dei sistemi di riconoscimento visivo richiede di definire soglie di sensibilità per l'identificazione degli oggetti ricercati, bilanciando le due necessità di contenere un eccesso di identificazioni non veritiere (falsi positivi) ma anche di minimizzare il numero dei casi positivi non identificati (falsi negativi).
La prospettiva di gestire un numero potenzialmente elevato di siti sospetti rilevati con la Computer Vision applicata all'osservazione terrestre ha reso opportuno lo sviluppo di sistema di prioritizzazione dei controlli basato sulla stima di rischio territoriale. Ogni sito sospetto può essere valutato con criteri relativi alla sua morfologia e dimensione, alla natura dell'ambiente e all'assetto antropico circostante, al livello di affidabilità della sua identificazione. In condizioni ottimali, queste informazioni dovrebbero essere contenute in database georeferenziati. A queste condizioni anche l'elaborazione del livello di rischio territoriale correlato ad ognuno dei siti si presta ad essere automatizzato.
Con questi presupposti è possibile ipotizzare, per il futuro, un sistema ibrido integrato automatizzato per la ricerca e il contrasto delle illegalità rilevabili attraverso osservazione terrestre.
9)
Polizia predittiva e protezione dell'ambiente: la disciplina dell'AI Act
Nel campo della prevenzione e contrasto del crimine comune, da molti anni negli Stati Uniti sono impiegate tecniche di valutazione della distribuzione territoriale della probabilità di commissione di crimini comuni. La pratica fa parte del gruppo di attività denominate come Predictive Policing, o Polizia Predittiva.
In origine, la Predictive Policing di livello territoriale ha utilizzato la modalità, elementare, di marcare su mappa la distribuzione dei crimini per estrapolare le priorità di pattugliamento, sia a fini preventivi sia per rendere più rapidi gli interventi delle forze di polizia.
Attualmente sono disponibili tecniche di Predictive Policing territoriale che, sulla base di modelli causa-effetto concepiti dall'uomo e della pesatura dei vari fattori in gioco basata sull'esperienza degli operatori, compongono "mappe" territoriali spazio-temporali predittive della probabilità di commissione di crimini. In questo caso, gli algoritmi utilizzati sono la traduzione matematica di un modello definito completamente da operatori umani. I fattori presi in considerazione per le elaborazioni possono contemplare una molteplicità di informazioni quali, ad esempio, la frequenza e la distribuzione storica dei crimini nell'area di interesse o in luoghi e situazioni analoghe, la presenza di eventi o condizioni particolari, anche estemporanee, il tessuto sociale, urbano, economico ed altre.
Esistono però anche esperienze di Predictive Policing territoriale basate su Machine Learning, nelle quali il sistema apprende come costruire le mappe spazio-temporali di rischio di commissione di crimini usando una propria esperienza virtuale, acquisita attraverso Training Set costituiti da insiemi di informazioni su crimini già commessi, estratte tipicamente da verbali di polizia, accompagnati da altre informazioni di contorno, quali quelle già elencate più sopra. L'inserimento delle caratteristiche dell'area che si intende studiare, i predittori, generano le stime relative sul rischio territoriale.
Per quanto concerne la predizione della presenza sul territorio di eventi criminali quali le discariche abusive esistono già modelli e studi, con riferimento all'uso di IA Machine Learning, che utilizzano una pluralità di parametri come predittori, quali le caratteristiche del reticolo stradale, distribuzione della popolazione e densità di produzione dei rifiuti ed altri41 42.
È possibile immaginare, prospetticamente, l'impiego sistematico di questo tipo di strumenti predittivi per la tutela contro numerosi reati ambientali associati ad elementi territoriali, quali discariche od impianti abusivi di rifiuti, ovvero traffici illeciti di rifiuti, od immissioni illecite nell'ambiente come, ad esempio, scarichi liquidi abusivi, che in prima approssimazione sembrano caratterizzati da ricorrenze territoriali.
È necessaria, comunque, una valutazione dell'efficacia della tecnica e della sua compatibilità giuridica.
Sotto il primo profilo, occorre partire dalla verifica del volume e qualità dei dati disponibili per la predisposizione dei necessari Training Set, ed una valutazione dell'effettivo vantaggio rispetto alle tecniche, più tradizionali, sin qui utilizzate (si rinvia, più diffusamente, al paragrafo finale).
Per quanto riguarda la compatibilità giuridica, il tema della polizia predittiva di tipo territoriale va esaminato in relazione al collegato concetto di polizia predittiva utilizzata per la prevenzione della commissione di reati effettuata attraverso pratiche di profilazione e di analisi di rischio su persone.
Riguardo a tale pratica va tenuto presente il divieto (articolo 5, comma 1, lettera d, dell'AI Act) di immissione sul mercato, messa in servizio per tale finalità specifica od uso "di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere la probabilità che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità43; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un'attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un'attività criminosa".
La portata di tale divieto è spiegata dal considerando 42, per il quale: "In linea con la presunzione di innocenza, le persone fisiche nell'Unione dovrebbero sempre essere giudicate in base al loro comportamento effettivo. Le persone fisiche non dovrebbero mai essere giudicate sulla base di un comportamento previsto dall'IA basato unicamente sulla profilazione, sui tratti della personalità o su caratteristiche quali la cittadinanza, il luogo di nascita, il luogo di residenza, il numero di figli, il livello di indebitamento o il tipo di automobile, senza che vi sia un ragionevole sospetto che la persona sia coinvolta in un'attività criminosa sulla base di fatti oggettivi verificabili e senza una valutazione umana al riguardo. Pertanto, dovrebbero essere vietate le valutazioni del rischio effettuate in relazione a persone fisiche intese a determinare il rischio che queste ultime commettano un reato o volte a prevedere il verificarsi di un reato effettivo o potenziale unicamente sulla base della loro profilazione o della valutazione dei loro tratti della personalità e delle loro caratteristiche. In ogni caso, tale divieto non fa riferimento né riguarda l'analisi del rischio che non è basata sulla profilazione delle persone o sui tratti della personalità e sulle caratteristiche delle persone, come i sistemi di IA che utilizzano l'analisi dei rischi per valutare il rischio di frode finanziaria da parte di imprese sulla base di transazioni sospette o di strumenti di analisi del rischio per prevedere la probabilità di localizzazione di stupefacenti o merci illecite da parte delle autorità doganali, ad esempio sulla base di rotte di traffico conosciute".
Dal punto di vista dei contenuti dell'AI Act, il caso della polizia predittiva applicata per la previsione di crimini su base territoriale sembra, in prima approssimazione, non rilevare ai fini della sua applicazione.
Bisogna però evitare, al fine di non incorrere nel divieto di profilazione previsto dall'AI Act, l'uso di dati in grado di creare un bias territoriale su base di quartiere, di zona, o addirittura regionale che si rifletta sulle persone che abitano nella zona. Si ricorda che l'AI Act mette in guardia ed erige presidi contro tutte le forme di discriminazione: giudizi prodotti da sistemi di IA su specifiche zone territoriali possono essere poste a diretto contatto con forme di discriminazione di tipo razziale ed etnico44.
Occorre quindi che lo screening territoriale non incorra non solo nel divieto di profilazione di cui all'articolo 5, comma 1, lettera d, dell'AI Act, ma anche in quello di valutazione o la classificazione delle persone fisiche o di gruppi di persone sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità (articolo 5, comma 1, lettera c, punto II, dell'AI Act).
Il rispetto di tali limiti comporta che, anche nel campo degli illeciti ambientali, l'uso di sistemi di IA a scopo di polizia predittiva di tipo territoriale è consentito solo qualora, contemporaneamente:
- sia di supporto alle valutazioni effettuate da operatori umani;
- le valutazioni degli operatori umani siano basate su dati oggettivi, quali la struttura delle organizzazioni presenti sul territorio in sé e non le persone fisiche che in esse operano45, i profili logistici e territoriali, la natura dei rapporti commerciali, l'analisi fiscale e le informazioni ricavabili dalle banche dati;
- sia finalizzato all'accertamento di un'attività criminosa46.
È vero che anche l'uso di pratiche di polizia predittiva a livello territoriale rispettose di tali limiti potrebbero di fatto creare, indirettamente, condizioni impattanti sulle persone qualora la qualificazione di un territorio come a maggior rischio per la commissione di reati potrebbe rappresentare una condizione di svantaggio per i residenti stessi di tali aree, ad esempio dal punto di vista reputazionale personale o, sempre ad esempio, con la compromissione della valutazione degli immobili e la svalutazione delle attività commerciali. Ma tali conseguenze, non fondandosi su valutazioni di tipo personalistico, dovrebbero essere accettate in quanto derivanti da dati oggettivi.
D'altro canto, poi, la qualificazione di rischio territoriale può, all'opposto, essere vissuta come un elemento positivo, portando, ad esempio ad un maggiore controllo da parte delle forze dell'ordine o comunque avendo valore di deterrenza e quindi contribuire alla maggior sicurezza "ambientale" delle comunità locali.
A tali principi è sostanzialmente allineato l'articolo 9 del citato Dlgs n. 103/2024 che, nel contesto delle disposizioni in tema di semplificazione dei controlli di tipo amministrativo svolti dalle pubbliche amministrazioni sulle attività economiche, tra cui quelle di protezione ambientale (articolo 3), prevede l'adozione di misure volte ad automatizzare progressivamente le attività di controllo ricorrendo a soluzioni tecnologiche, ivi incluse quelle di intelligenza artificiale, in coerenza con il principio di proporzionalità al rischio.
La norma, infatti, dispone (comma 2), che le decisioni concernenti la conformità agli obblighi e adempimenti imposti alle imprese controllate assunte mediante soluzioni tecnologiche rispettano le disposizioni di cui all'articolo 22 del regolamento (Ue) 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati47, nonché i principi di:
a) comprensibilità, conoscibilità, significatività e rilevanza delle informazioni che devono essere fornite, per cui ogni soggetto controllato ha diritto a conoscere l'esistenza di processi decisionali automatizzati che lo riguardano e, in tal caso, a ricevere informazioni sulla logica utilizzata;
b) non esclusività della decisione algoritmica, per cui comunque esiste nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata, con diritto del soggetto controllato di esprimere la propria opinione e contestare la decisione assunta, secondo quanto previsto dall'articolo 22 del regolamento (Ue) 2016/679;
c) non discriminazione algoritmica, per cui le amministrazioni mettono in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti dei soggetti controllati;
d) efficace ed efficiente gestione dei dati, da attuarsi con apposita regolamentazione riguardante le fasi che attengono alla loro formazione, raccolta, accesso sicuro, monitoraggio, aggiornamento, riutilizzo, conservazione e comunicazione.
Tali principi evocano, pur senza richiamarli espressamente, alcuni dei contenuti dell'AI Act i quali, evidentemente, dovranno essere tenuti ben presenti all'atto della progettazione e sviluppo di sistemi per la pianificazione dei controlli amministrativi, al fine di assicurarne la conformità alle regole sovranazionali. Le considerazioni svolte al riguardo in questa sede costituiscono, quindi, una possibile guida operativa anche per la fase applicativa del Dlgs n. 103/2024 nella materia dei controlli ambientali.
10)
Intelligenza Artificiale, accuratezza e uso in campo giudiziario
Tra gli elementi critici, ampiamente presi in considerazione nell'IA Act, trovano luogo l'uso di sistemi di IA per l'analisi di rischio e la profilazione di soggetti. Pur considerando che nell'attività di assicurazione della conformità ambientale, specie sul piano amministrativo, sono coinvolte essenzialmente persone giuridiche, escluse dalle prescrizioni del regolamento europeo sulle attività di profilazione ed analisi di rischio, l'attenzione verso l'uso di questi delicati strumenti non deve comunque venire meno, considerato che nei casi penali i soggetti considerati sono anche persone fisiche.
Ciò apre una complessa area di discussione e di valutazione. Innanzitutto, occorrerà il pieno rispetto delle norme del regolamento europeo, che prevede l'uso si strumenti di IA nella caratterizzazione di persone in campo di giurisdizione penale solo a fini di supporto di valutazioni umane già basate su fatti oggettivi e verificabili48 e in quadro di certo rispetto dei diritti delle persone fisiche, anche escludendo influenze su processi decisionali49.
D'altro lato, qualora sia ammesso dalle norme l'uso di sistemi di IA per compiti giurisdizionali di profilazione e analisi di rischio, l'operatore della giustizia non potrà trascurare il tema della accuratezza delle risposte fornite dal sistema, che deve essere rappresentata con un'adeguata metrica.
Ciò è essenziale, al fine di porre gli operatori della giustizia nelle condizioni di interpretare il livello di credibilità del sistema di IA impiegato e utilizzarlo adeguatamente50, dato che esso può contribuire alla formazione di decisioni essenziali nella fase di indagine; il risultato di analisi effettuate con IA può dare inoltre contributo all'accertamento giudiziario, se non con la dignità di prova, quantomeno con il valore di argomentazione o nella descrizione del percorso investigativo svolto.
Per tutte queste ragioni, il tema dell'accuratezza è trattato come fattore fondamentale nella discussione sui sistemi di IA ad alto rischio, al punto di essere citata come uno dei fattori cardine da rappresentare per il rispetto dei principi di trasparenza, da dichiarare nelle istruzioni per l'uso che devono accompagnare i sistemi di IA51.
Sta di fatto, però, che a livello europeo e probabilmente mondiale, un parametro così importante non dispone, ad oggi, di standard di misurazione stabilizzati in adeguate norme52, pur essendo consolidato l'uso di alcuni parametri stimatori dell'accuratezza quali la precisione53, il recall54, ed altri55, meno intuitivi.
Per altro, se risultati ottenuti attraverso sistemi di IA non possono essere indicati, per loro stessa natura, come prova scientifica, come verrà più avanti discusso, essi hanno sicuramente la natura di elaborazione scientifica. Sebbene sussista la difficoltà o in alcuni casi l'impossibilità di spiegare il percorso logico utilizzato dall'algoritmo addestrato56, i nessi inferenziali individuati ed utilizzati per portare al risultato ottenuto non possono che essere, sul piano statistico, molto robusti.
11)
Gli insiemi di informazioni utilizzati per l'addestramento delle applicazioni dell'IA
I sistemi di IA destinati a compiti specifici e delimitati, frequentemente definiti "Narrow AI", tra cui quelli utilizzati per la profilazione e l'analisi di rischio, come ampiamente visto richiedono addestramento attraverso insiemi di dati (i c.d. training set), la cui estensione, rappresentatività, qualità sono fondamentali per l'accuratezza e, alla fine, per l'affidabilità del sistema stesso. Il training set, sinteticamente, rappresenta l'insieme di esempi noti dai quali il sistema di IA trae la struttura inferenziale poi utilizzata per la valutazione dei casi di interesse. La tecnica mima la costruzione dell'esperienza umana, non basata su relazioni causa-effetto note e generalizzabili, ma sulla memorizzazione di ricorrenze di eventi e delle circostanze in cui si sono verificati.
È intuibile, di conseguenza, come l'uso di dati di addestramento viziati da varie classi di problemi o, simmetricamente, l'uso di sistemi di IA in contesti diversi rispetto a quelli da cui sono stati tratti i dati di addestramento, possono generare significative patologie,
Ad esempio, oltre a problemi di precisione e recall, frequentemente connessi a training set non sufficientemente ampi, si pongono problemi di incoerenza, discriminazione e non equità, nonché di distorsione dei giudizi forniti dal Sistema di IA che possono essere legati, ad esempio, alla scarsa rappresentatività e possibile orientamento pregiudiziale dei training set57.
Il tema, e la sua criticità, è ampiamente rappresentato nell'AI Act58, che impone sistemi di governance dei dati da utilizzare come training set che dovrebbero porre al riparo dei rischi appena richiamati.
In sintesi, la qualità, quantità e accessibilità dei dati disponibili per lo sviluppo ed uso sistemi di IA sono fattori abilitanti per un impiego tecnicamente affidabile ed eticamente corretto dell'IA in ogni campo, ma assume un particolare valore nel suo uso anche nel campo della prevenzione, ricerca e giurisdizione dei reati ambientali.
Una prima analisi dei database rilevanti per lo sviluppo l'applicazione di sistemi di IA per il contrasto ai crimini ambientali, segnatamente nel campo dei rifiuti, effettuata dalla Fondazione Vittorio Occorsio, ha messo in evidenza da un lato l'esistenza di importanti fonti di dati e dall'altro una probabile inadeguatezza quali-quantitativa rispetto alle esigenze relative all'implementazione di sistemi di IA. Frammentazione, disomogeneità e non aggiornamento sono tra le principali criticità rilevate, che occorre superare per procedere verso lo sviluppo di sistemi di IA anche in questo settore, in Italia.
Si crede, per altro, che esistano adeguate basi tecniche e normative per procedere in questa direzione, oltre alle indicazioni diffusamente contenute nell'AI Act.
Un importante riferimento nazionale relativamente alla qualità dei dati, per lo meno nel settore della Pubblica Amministrazione, è rappresentato dalla determinazione commissariale n. 68/2013 dell'Agenzia per l'Italia digitale, applicabile alle basi di dati critiche presenti tra database di interesse nazionale identificati all'articolo 60 del decreto legislativo 7 marzo 2005, n. 82, Codice dell'amministrazione digitale.
In tale disposizione si detta che tali basi di dati critiche debbano rispettare almeno 4 tra le 15 caratteristiche di qualità definite nello standard Iso/Iec 25012:2008, divenuto norma italiana Uni Iso/Iec 25012:2014 (accuratezza, coerenza, completezza, attualità).
Non risulta che tra i database di interesse nazionale, ed a maggior ragione tra quelli definiti come critici, ve ne siano di direttamente utili per lo sviluppo di sistemi di IA dedicati alla compliance ambientale, ammesso e non concesso che il rispetto di tali requisiti di qualità sia sufficienti a rendere idoneo un database ad essere impiegato in sistemi di IA.
A livello dell'Unione europea, la disponibilità di informazioni prodotte dagli Stati membri è ampia, ma anche in questo caso, una verifica della loro utilità per la creazione di sistemi di IA destinati all'esercizio dell'Assicurazione della Conformità ambientale non è stata ancora compiuta. Un primo campo di analisi può essere rappresentato dall'insieme di dati ambientali che gli Stati membri sono tenuti a trasmettere all'Agenzia Europea dell'Ambiente, contenti informazioni sulla qualità ambientale ma anche su fattori di pressione e vulnerabilità.
Un'altra fonte di informazione standardizzata dovrebbe essere rappresentata dalle banche dati assoggettate alla direttiva 2007/2/Ce che istituisce un'Infrastruttura per l'informazione territoriale nella Comunità europea (Inspire) che copre 34 tematiche, alcune delle quali di sicuro interesse ambientale, da valutare per i fini qui trattati.
Quale strumento normativo prospettico per sostenere un adeguato sviluppo dei sistemi di IA può anche essere considerata la direttiva (Ue) 2024/1203 (Ecd) sulla tutela penale dell'ambiente, con la sua richiesta di mettere a disposizione della giurisdizione ambientale strumenti investigativi efficaci e proporzionati per le indagini, anche "speciali"59 .
I sistemi di IA corrispondono a tale descrizione e, per logica estensione, occorrerà realizzare le condizioni abilitanti per l'uso dei sistemi di IA, tra le quali, certamente, l'adeguamento dei database utili per le esigenze relative ai dati qui discusse.
La direttiva Ecd affronta il tema della messa in comune di dati relativi ai crimini ambientali60, ma solo a fini statistici, evidentemente a supporto di decisioni di policy, non cogliendo l'occasione per normare in modo più ampio i dati di rilievo per usi di contrasto alla criminalità ambientale prevedendo, se non la trasmissione di ulteriori informazioni alla Commissione europea, l'accumulo di dati di maggiore dettaglio in forma omogeneizzata, sfruttando le opportunità offerte dagli standard Iso/Iec 25012 e l'Iso/Iec 2502.
La standardizzazione dei dati offrirebbe, inoltre, enorme giovamento nella lotta al crimine ambientale transazionale, ove lo scambio di informazioni tra Paesi assume un'importanza fondamentale.
Per quanto visto, si crede necessaria, nel prossimo futuro, un'iniziativa dell'Unione, o almeno nazionale, orientata ad affrontare ed eliminare gli ostacoli appena discussi sulla disponibilità di dati di adeguata quantità e qualità per il dispiegamento di strumenti di IA nel campo della prevenzione e giurisdizione delle illegalità nel settore della protezione dell'ambiente, a partire dalle azioni criminali.
12)
Intelligenza artificiale, controlli ambientali e processo penale
Nell'IA Act i reati ambientali rientrano tra quelli di cui all'allegato II) per i quali l'articolo 5, comma 1, lettera h, prevede la deroga al divieto di uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, quando "e nella misura in cui tale uso sia strettamente necessario" per "la localizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni" (il divieto, ad esempio, non opera nel contrasto ai reati di attività organizzate per il traffico illecito di rifiuti di cui all'articolo 452-quaterdecies T.u.a. o di inquinamento o disastro ambientali di cui agli articoli 452-bis e quater c.p., puniti con pena massima superiore a tale soglia).
A parte questo riferimento, non vi sono nell'IA Act disposizioni specifiche sull'utilizzo dell'intelligenza artificiale nell'accertamento delle responsabilità penali per reati ambientali.
Il tema va quindi affrontato in via generale valutando l'impatto di tale tecnica sulla disciplina delle varie fasi, procedimentali e processuali, in cui l'utilizzo può venire in evidenza61.
La prima questione è se l'utilizzo della polizia predittiva nella selezione dell'oggetto dei controlli ambientali (nei limiti sopra individuati in cui deve ritenersi consentito) abbia rilievo ai fini dell'applicabilità dell'articolo 220 disp. att. c.p.p. ("Quando nel corso di attività ispettive o di vigilanza previste da leggi o decreti emergono indizi di reato, gli atti necessari per assicurare le fonti di prova e raccogliere quant'altro possa servire per l'applicazione della legge penale sono compiuti con l'osservanza delle disposizioni del codice").
La questione si è posta nella materia ambientale a proposito dei controlli di tipo tradizionale62.
Il loro svolgimento spesso implica accertamenti di natura tecnica, consistenti o in un'attività di prelievo di campioni e successive analisi (si pensi ai reati che presuppongono il superamento di limiti tabellari, od alla qualifica dei rifiuti rinvenuti in un determinato sito, omessa bonifica), ovvero nel mero accertamento strumentale del superamento di determinati standards (si pensi all'inquinamento acustico od elettromagnetico).
Tali accertamenti possono riguardare la fase di competenza degli organi amministrativi di vigilanza nel corso della quale, all'esito di sopralluoghi, rilievi, anche fotografici, ispezioni, prelevamenti di campioni (se del caso coattivi) ed analisi chimiche, emergono elementi di reato per i quali si avvia successivamente l'indagine penale; oppure possono avere, fin dall'inizio, natura di indagini penali, disposte dal P.M., ovvero di iniziativa da parte della Polizia Giudiziaria, eventualmente avvalendosi di ausiliario63.
In tale contesto si è posta la questione se l'attività svolta rientri in quella amministrativa o di P.G.
Dalla risposta al quesito deriva l'individuazione delle garanzie applicabili (nella prima ipotesi si applica il disposto di cui all'articolo 223 disp. att. c.p.p., nella seconda le regole proprie dell'indagine penale: articoli 220 c.p.p., 354 c.p.p. e norme correlate).
L'esame delle soluzioni trovate in tema di controlli ambientali tradizionali può essere utile per risolvere l'inquadramento di quelli compiuti con l'utilizzo dell'intelligenza artificiale.
La giurisprudenza è ormai consolidata nel senso di ritenere che "le ispezioni, i prelievi dei campioni e la loro prima analisi costituiscono attività di vigilanza amministrativa compiuta dalla Polizia Giudiziaria prima che esista una vera e propria notizia di reato: per il compimento di tali atti, volti anche alla identificazione dell'eventuale colpevole, non è prescritta pertanto l'osservanza delle disposizioni del codice di rito poste a tutela dei diritti di difesa. L'attività di prelievo dei campioni [nella specie di acque reflue], necessaria per la vigilanza anche a sorpresa [delle attività inquinanti, nella specie scarichi], non è finalizzata soltanto all'accertamento di reati, ma rientra nei compiti di normale e doveroso controllo con carattere di continuità dello stato effettivo dell'inquinamento e della qualità dei corpi ricettori, in vista del loro recupero ambientale. Tale attività ha carattere esclusivamente amministrativo, rimessa alla discrezionalità degli organi amministrativi nell'esercizio delle loro funzioni istituzionali, previste allo scopo di accertare i reati nonché di controllo dello stato effettivo dell'inquinamento e della qualità dei corpi ricettori"64.
Conseguenza di tale affermazione è che per la fase del prelievo non deve essere assicurata alcuna garanzia difensiva, né deve essere dato preavviso ai soggetti nei cui confronti vengono eseguiti gli accertamenti. Inoltre, in sede di sopralluogo per il controllo, alla fase del prelievo non deve necessariamente assistere il soggetto sottoposto a controllo, potendo assistere anche un incaricato, senza che sia necessaria la presenza di difensore. Ciò perché si è ancora nella fase di attività amministrative di vigilanza, per cui non sussistono ancora indizi di reato65.
Di contro, quando al momento dell'attività di controllo esista già un soggetto determinato, indiziabile di reati, trovano applicazione le garanzie difensive previste dall'articolo 220 disp. att. c.p.p., la cui operatività presuppone la sussistenza della mera possibilità di attribuire comunque rilevanza penale al fatto che emerge dall'inchiesta amministrativa e nel momento in cui emerge, a prescindere dalla circostanza che esso possa essere riferito ad una persona determinata66.
A proposito del momento in cui deve ritenersi cessata la fase di attività amministrative di vigilanza, a seguito dell'emergere di indizi di reato, si è però osservato67 come all'attività di controllo viene sovente dato corso "non già in esecuzione di servizi di normale routine, ma in presenza, e a causa, di turbative o alterazioni sofferte dalla risorsa protetta, rilevate direttamente dall'organo preposto al controllo (cui spettano anche compiti di vigilanza), o a questo segnalate. In tali non infrequenti casi, le attività di prelievo e di campionamento non possono, all'evidenza, farsi rientrare nel novero di operazioni di mera routine amministrativa, ma debbono ritenersi dirette, o, quanto meno, anche dirette, all'accertamento di illeciti, senza che sia possibile aprioristicamente escludere che si tratti di illeciti penalmente rilevanti, in quanto sono già emersi gli elementi (indizi semplici) atti a dare «colorazione» penale alla vicenda. L'attività di prelievo e di campionamento non può, in questi casi, qualificarsi «pre-processuale», o, più esattamente, extra processum, essendo intesa, od anche intesa, all'acquisizione di elementi di prova, vale a dire i verbali delle analisi, delle quali i prelievi ed i campionamenti costituiscono necessario antecedente ed alle quali essi sono, altresì, strettamente funzionali"68.
Queste osservazioni dimostrano come non sia affatto agevole individuare il momento in cui si manifestano indizi di reato. Trattasi di momento determinante perché, a partire da esso, le garanzie di difesa previste dal codice (articoli 220 c.p.p., 354 c.p.p. e norme correlate) debbono assistere il titolare dello scarico (o la persona eventualmente diversa qualificabile come «responsabile» dello stesso), senza temporalmente posporle o limitarle al momento di esecuzione dell'analisi.
Due considerazioni possono fornire dei parametri di riferimento.
La prima è che vanno osservate le garanzie di difesa previste dal Codice "nel momento stesso in cui vengano ad emergere indizi semplici, sprovvisti delle qualità (gravità, precisione, concordanza) pretese dall'articolo 192, secondo comma, c.p.p. per l'attribuzione agli indizi della valenza di prova. Il che si evince dal disposto dell'articolo 220 disp. att. c.p.p., ove non si rinviene alcun richiamo alla detta disposizione, essendo ivi semplicemente riportata l'espressione indizi, senza specificazioni ulteriori"69.
La seconda è che gli indizi devono soggettivarsi cioè essere riferiti ad una determinata persona, ovvero ad una ristretta cerchia di persone70.
In via generale, quindi, "presupposto dell'operatività dell'articolo 220 disp. att. c.p.p. non è l'insorgenza di una prova indiretta quale indicata dall'articolo 192 c.p.p., quanto, piuttosto, la sussistenza della mera possibilità di attribuire comunque rilevanza penale al fatto che emerge dall'inchiesta amministrativa e nel momento in cui emerge, a prescindere dalla circostanza che esso possa essere riferito ad una persona determinata.
In particolare, poi, se si tiene conto del dato letterale dell'articolo 220 disp. att. c.p.p. citato, emerge chiaramente come lo stesso si riferisca ad indizi di reato che emergono nel corso delle attività ispettive o di vigilanza, il che porta ad affermare che la cognizione circa la sussistenza di indizi di reità, ancorché non riferibili ad un soggetto specifico, deve risultare oggettivamente evidente a chi opera mentre effettua tale attività e non deve essere soltanto ipotizzata sulla base di mere congetture, né può ritenersi possibile, dopo che un reato è stato accertato, sostenere che chi effettuava il controllo avrebbe dovuto prefigurarsi quale ne sarebbe stato l'esito71.
Tali essendo le condizioni di applicabilità delle garanzie previste dal codice di procedura penale, le stesse devono ritenersi insussistenti nel caso di selezione con strumenti di intelligenza artificiale di luoghi od aziende da controllare in via prioritaria in quanto presentano oggettive connotazioni di rischio, quando l'illecito ambientale non si sia verificato; quando invece si sia verificato, l'individuazione dei possibili autori da parte di un sistema di IA di comprovata affidabilità non costituisce un dato neutro, ma integra un indizio sufficiente per escludere la natura meramente amministrativa dei successivi accertamenti72.
Per quanto poi riguarda l'utilizzo dell'IA nell'attività di indagine e nei processi per reati ambientali si pongono le stesse tematiche per le altre tipologie di reato.
Va in primo luogo richiamato il divieto generale di decisioni giudiziarie unicamente automatizzate.
Tale divieto è previsto dall'articolo 11 direttiva (Ue) 2016/680 ed è stato ripreso dall'articolo 8 Dlgs 18 maggio 2018, n. 51. Non è prevista alcuna deroga, neppure con il consenso dell'interessato, come invece previsto dall'articolo 22 del regolamento (Ue) 2016/679 Gdpr, rispetto al quale il citato articolo 11 ha natura speciale.
Il divieto di decisioni giudiziarie automatizzate è sotteso alla individuazione dei sistemi ad alto rischio nell'IA Act, laddove l'allegato IV:
- al punto 6 (attività di contrasto) fa riferimento alla lettera c) a "sistemi di IA destinati a essere utilizzati dalle Autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle Autorità di contrasto per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati"73;
- al punto 8 (amministrazione della giustizia e processi democratici) fa riferimento (lettera a) a "sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'Autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie"74.
Esclusa la possibilità di decisioni automatizzate basate sull'IA occorre poi valutare la natura del supporto alla valutazione giudiziaria ed in particolare se lo stesso possa assumere la valenza di prova scientifica.
Tale valenza va apprezzata alla stregua della giurisprudenza della Cassazione a partire dalla nota sentenza Cozzini75, che enunciò il principio, tuttora valido, secondo cui "in tema di prova scientifica, il giudizio di attendibilità di una teoria deve tener conto degli studi che la sorreggono e delle basi fattuali sui quali sono condotti, dell'ampiezza, della rigorosità e dell'oggettività della ricerca, del grado di sostegno che i fatti accordano alla tesi, della discussione critica che ha accompagnato l'elaborazione dello studio e delle opinioni dissonanti che si siano eventualmente formate, dell'attitudine esplicativa dell'elaborazione teorica, del grado di consenso che la tesi raccoglie nella comunità scientifica, nonché dell'autorità e dell'indipendenza di chi ha effettuato la ricerca".
La valutazione di fatti tramite sistemi di IA ai fini dell'individuazione di responsabilità non può inquadrarsi in tale contesto.
Tale processo ha natura particolare, cioè riguarda un singolo fatto od una pluralità specifica di fatti determinati, mentre la prova scientifica in senso stretto dovrebbe provare che, secondo un criterio generalmente riconosciuto come attendibile, è altamente probabile la medesima risposta per tutti i fatti aventi le medesime caratteristiche.
Conclusione difficile da attribuire al caso in esame, e comunque densa di vulnerabilità.
Alcuni aspetti connaturati ai sistemi di intelligenza artificiale, di cui verranno qui discussi quelli che sembrano apparire i principali, fanno giungere a queste conclusioni.
Il primo aspetto è relativo alla natura essenzialmente inferenziale del modo nel quale i sistemi di Intelligenza Artificiale forniscono risposte alle domande di interesse.
Infatti, il processo particolare sotteso alle valutazioni prodotte attraverso sistemi di IA consiste nell'estrapolazione delle regole che il sistema impiegherà per fornire i risultati richiesti attraverso l'analisi di una pluralità di casi simili (il c.d. set di dati di addestramento, o training set). La logica utilizzata è, di conseguenza, di tipo induttivo, ed i risultati ottenibili sono legati in modo inscindibile, solamente e totalmente ai dati con i quali il sistema di IA è stato addestrato. I risultati ottenuti da un sistema di IA varieranno, anche in modo sostanziale, in funzione della variazione dei dati utilizzati per il suo addestramento.
Training set lacunosi, o ridondanti in alcune classi di dati, o contenenti esempi non pertinenti o, peggio, inficiati da pregiudizi sono causa della produzione di risposte che deviano da quelle ottenibili con sistemi addestrati in modo adeguato rispetto al caso che si intende studiare.
Ciò espone i sistemi di Intelligenza Artificiale ad una prima temperie dibattimentale, evidentemente non facile da superare, insieme alle altre relative ai principi enunciati dalla sentenza Cozzini.
Per altro, l'IA Act si prende cura del tema istituendo uno specifico complesso sistema di tutele76 e di qualità77 che, almeno sul piano teorico, dovrebbe assicurare la minimizzazione delle criticità esposte o comunque indicare gli elementi da dibattere per l'accettazione dei risultati dei sistemi di IA in giudizio.
Il secondo aspetto da considerare è il livello di incertezza intrinsecamente legato alle risposte fornite da sistemi di Intelligenza Artificiale, in quanto essenzialmente strumento operante su basi statistiche.
L'attendibilità, o accuratezza, come definita nell'AI Act, di un sistema di IA è misurabile facendo svolgere al sistema un esame retrospettivo di casi noti, usati a fini di test78.
L'accuratezza di un sistema, da dichiararsi ad esempio ai fini dell'AI Act, è di conseguenza un indicatore statistico delle sue performance generali, ottenuto nelle condizioni di prova scelte da chi lo ha prodotto. Ma la qualità della risposta di un sistema di IA in uno specifico caso dipende anche dalla qualità delle informazioni che lo descrivono e con cui il sistema è alimentato per produrre il giudizio richiesto, oltre che dalla congruenza con il caso del training set utilizzato, appena discussa.
Il terzo aspetto, probabilmente risolutivo, è che il concetto di prova scientifica implica, in primis, l'identificazione e la condivisione nella comunità scientifica di una legge generale che spiega in modo robusto una relazione causa – effetto: da leggi dimostrate in modo adeguato, essendo noto e condiviso il razionale ed essendone riproducibili gli effetti, si può poi dimostrare la sussistenza delle condizioni ricercate nello specifico, che hanno la piena potenzialità di dimostrare a loro volta, ad esempio, la colpevolezza o meno di un soggetto accusato.
Nel caso dei sistemi di intelligenza artificiale, le regole applicate per il giudizio sono prodotte autonomamente dal sistema stesso, attraverso il processo di estrapolazione da esempi già descritto, la cui logica non è, se non in casi particolari, facilmente accessibile all'operatore umano a causa della sua complessità ed ha inoltre un significato essenzialmente statistico, nella quale i rapporti di causalità, vengono sostituiti da rapporti di ricorrenza statistica: in queste condizioni il sistema può sfuggire a qualsiasi forma di confutazione quantomeno intesa nel senso tradizionale. È molto ampia la discussione sulla "spiegabilità" delle risposte fornite dai sistemi di IA attraverso l'estrazione e lo studio dei nessi logici individuati dal sistema e utilizzati per la produzione del risultato ricercato. Al crescere della complessità dell'algoritmo di AI impiegato diviene più complessa la mappatura del percorso utilizzato e delle relazioni individuate tra le diverse informazioni utilizzate nell'addestramento del sistema. Al momento, però, appare molto critica l'applicazione di tecniche di "spiegazione" del risultato di un'analisi condotta con IA in campo giudiziario.
Di conseguenza, il supporto fornito dall'intelligenza artificiale rappresenta, almeno allo stato, per i reati ambientali, come per gli altri, un importante ausilio per lo svolgimento delle indagini, anche nel caso di ragionevole affidabilità del dato fornito, in quanto è comunque necessario il ricorso agli strumenti classici del codice di procedura penale.
Quanto alla valenza giudiziale dei dati, in caso di validazione dell'affidabilità del sistema di IA utilizzato nella ricostruzione del fatto e nell'accertamento della responsabilità, pur dovendosi escludere la valenza di prova scientifica, si potrebbe essere in presenza di un indizio grave e preciso, che potrebbe concorrere, nella pluralità di indizi con tali caratteristiche e complessivamente concordanti, a fornire la prova ai sensi dell'articolo 192, comma 2, c.p.p.79.
Un rafforzamento del valore nel procedimento penale dei risultati ottenuti attraverso tecniche di IA in giudizio può essere ottenuto accompagnandoli con la loro "spiegazione", ad esempio con l'indicazione del nesso tra le categorie di informazioni utilizzate nel training set e del loro peso della formazione del risultato finale. Lo studio di queste relazioni e delle ricorrenze individuate può portare alla evocazione di relazioni causa-effetto, che possono essere confermate con appositi studi o indagini mirate. La disponibilità, nelle diverse fasi della giurisdizione, di un'indicazione almeno schematica e per fattori principali della logica impiegata dai sistemi di IA può certamente rafforzare l'accettabilità di questo tipo di tecnica anche in campo giudiziario80.
13)
Considerazioni finali
13.1)
Le prospettive
L'uso dell'Intelligenza Artificiale nell'assicurazione della conformità ambientale, compresa la sua verifica in sede di giurisdizione penale, se effettuato correttamente e con attenzione, rappresenta un campo molto promettente, in grado di produrre effetti e risultati non diversamente raggiungibili.
Le esperienze individuate dell'uso di strumenti di IA nella prevenzione e dell'enforcement ambientale, ma anche in altre aree di reato, lo testimoniano ampiamente.
Analisi di rischio e profilazione, Data Analytics avanzata, sistemi di Computer Vision per l'analisi del territorio sono già stati utilizzati con successo, sia in area amministrativa sia in campo penale, ed altre opportunità di uso si prospettano.
L'espansione dell'uso di queste tecniche, oggi tutto sommato molto limitato a livello europeo e, prospetticamente, l'uso di forme di IA non supervisionata, di sistemi basati su grandi modelli linguistici (LLM) e forme di IA generativa specifica per il settore sono destinate, se non a rivoluzionare l'approccio alla tutela dell'ambiente, quantomeno a offrigli strumenti tanto efficaci ed efficienti da prospettare il loro regolare affiancamento, se non addirittura la sostituzione, rispetto alle pratiche "tradizionali".
Questa prospettiva, basata anche sulla presa d'atto di quanto sta avvenendo praticamente in ogni altro campo delle attività umane, è ineludibile. Essa deve essere di conseguenza adeguatamente gestita, a partire dalla consapevolezza degli aspetti critici connessi all'impiego di sistemi di IA e dalla conoscenza ed implementazione degli aspetti abilitanti per l'uso di tali sistemi.
L'uso di sistemi di IA, per loro stessa natura, è caratterizzato da numerose problematiche, etiche e giurisdizionali, affrontate nell'Unione Europea attraverso l'adozione del regolamento europeo AI Act. Le criticità presidiate dall'AI Act sono essenzialmente, per quanto concerne la materia in esame, la potenziale lesione dei diritti fondamentali delle persone e l'affidabilità dei sistemi di IA.
Questi aspetti sono cruciali nell'esercizio della giurisdizione, al punto che l'AI Act include queste attività tra le pratiche "ad alto rischio" o, nei casi più critici, si spinge a vietare del tutto l'uso dell'IA.
L'affidabilità di un sistema di IA, concetto complesso condizionato da numerosi fattori, è comunque un fattore critico, da gestire con adeguata attenzione, visto il potenziale impatto di decisioni errate assunte tramite IA.
Gli aspetti fondamentali dell'analisi svolta in questo studio, riassunti in queste conclusioni, portano a individuare aree di lavoro che si ritiene opportuno attivare al più presto, per favorire l'adozione, in Italia, di sistemi di sistemi di IA nel campo della assicurazione della conformità e della giurisdizione anche penale dell'ambiente, nel rispetto degli aspetti etici e tecnici presidiati dall'AI Act.
13.2)
Un percorso per uno sviluppo equilibrato dell'uso dell'IA in Italia: obiettivi ed azioni
Si individua, innanzitutto, l'esigenza di approfondire lo studio dell'impiego nella compliance e giurisdizione ambientale di strumenti di IA, attraverso la raccolta e l'esame critico dei casi disponili. La raccolta e la disseminazione delle esperienze già esistenti è un primo passaggio fondamentale per l'adozione di strumenti di IA già disponibili o quale ispirazione per lo sviluppo di nuovi, contestualizzati alla realtà nazionale.
Altrettanto, è necessario un continuo impegno di approfondimento relativo alle implicazioni e vincoli legali nell'uso della IA con un continuo impegno dottrinale, non solo per quanto concerne l'impatto dell'AI Act, ma relativamente al Codice penale italiano, ad esempio per dirimere i problemi, già presenti o all'orizzonte, dell'inquadramento nel procedimento penale dei prodotti e delle elaborazioni effettuate tramite IA.
È necessario, inoltre, creare condizioni tecniche abilitanti per l'uso di sistemi di IA, allineando i sistemi informativi esistenti, quali database ed archivi di ogni tipo, ai requisiti minimi che ne permettano un agevole impiego in applicazioni di IA. Non sembra che oggi sussistano tali condizioni, quantomeno per un elevato numero di database di interesse per l'assicurazione della conformità e giurisdizione penale dell'ambiente, ricordando che quantità e qualità di dati a disposizione sono elementi fondamentali per un uso di successo dei sistemi di IA.
Occorre, tra l'altro, favorire la standardizzazione della gestione dei dati sulla compliance e il crimine ambientale a livello dell'Unione europea per la migliore gestione, anche attraverso sistemi di IA, del crimine ambientale transnazionale. L'occasione è abbozzata, ma non sviluppata nella recente nuova direttiva dell'Unione europea sui crimini ambientali.
Perseguire tale obiettivo appare ancor più di attualità a seguito dell'entrata in vigore del Rentri (registro elettronico nazionale per la tracciabilità dei rifiuti, disciplinato con Dm 4 aprile 2023, n. 59), in quanto la massa di dati da inoltrare al registro ben potrebbe essere utilizzata da sistemi di IA in grado di individuare, anche in modo selettivo, criticità e contraddizioni81.
Come fondamentale osservazione finale, si ricorda che l'IA debba sempre considerarsi uno strumento di supporto alla conoscenza ed alle decisioni dell'uomo. E la componente umana del sistema interattivo che si viene così a formare merita di conseguenza fortissima attenzione, non sempre riconosciuta.
Di conseguenza, devono essere coltivate e sviluppate adeguatamente competenze, conoscenze e consapevolezze degli operatori coinvolti ad ogni livello nel settore della conformità e giurisdizione ambientale, promuovendo ed attuando azioni formative rapide, diffuse, ben focalizzate.
Note redazionali
Pasquale Fimiani, Avvocato generale presso la Procura generale della Corte di cassazione è membro del Comitato scientifico della Fondazione Occorsio e ne coordina le attività nel campo della legalità ambientale. Giuseppe Sgorbati, già direttore tecnico scientifico di Arpa Lombardia è special advisor della ricerca “Intelligenza artificiale ed illeciti ambientali” della Fondazione. Lo studio, la cui prima versione è del 27 novembre 2024, viene progressivamente aggiornato in relazione all’evoluzione normativa, giurisprudenziale, dottrinale e di prassi applicativa.
Comunque reperibile anche a questo link: Fondazione Vittorio Occorsio | Intelligenza Artificiale e indagini ambientali – Rapporto del 17 febbraio 2025
Si rinvia agli Atti del workshop organizzato dalla Fondazione Occorsio (19 novembre 2021) su"Intelligenza artificiale e giurisdizione penale", in https://www.sistemapenale.it/it/documenti/intelligenza-artificiale-e-giurisdizione-penale-fondazione-occorsio-atti-workshop, 13 giugno 2022.
I fattori che confermano tale prospettiva sono: a) l'ampia disponibilità di dati per le informazioni da fornire ai sistemi di IA; b) un perimetro piuttosto definito delle modalità di commissione delle varie tipologie di illeciti ambientali; c) la pluralità di interessi convergenti, pubblici e privati, nella prevenzione dell'inquinamento e nel contrasto ai fenomeni che lo causano.
Regolamento (Ue) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (Ce) n, 300/2008, (Ue) n, 167/2013, (Ue) n, 168/2013, (Ue) 2018/858, (Ue) 2018/1139 e (Ue) 2019/2144 e le direttive 2014/90/Ue, (Ue) 2016/797 e (Ue) 2020/1828 (regolamento sull'intelligenza artificiale).
Direttiva (Ue) 2024/1203 del Parlamento europeo e del Consiglio dell'11 aprile 2024 sulla tutela penale dell'ambiente, che sostituisce le direttive 2008/99/Ce e 2009/123/Ce.
Per considerazioni di carattere generale, oltre ai riferimenti di cui alle note che seguono, cfr.: Calisai, Intelligenza artificiale e ambiente, in Giustizia civile, 2021, IV, 895; Ciaralli, Intelligenza artificiale, decisione politica e transizione ambientale: sfide e prospettive per il costituzionalismo, in federalismi.it, 28 giugno 2023; d'Avanzo, Riflessioni di informatica giuridica per l'ambiente. Digitalizzazione pubblica e applicazioni di intelligenza artificiale, in https://hal.science/hal-03216197, 3 maggio 2021; Id., Le applicazioni dell'intelligenza artificiale a tutela dell'ambiente, in Diritto e giur. agraria e dell'ambiente, 2019, II (rivista on-line); Di Florio, Il diritto penale che verrà. Brevi considerazioni sul possibile impiego dell'IA per prevenire il rischio di disastri colposi, in https://archiviopenale.it/, 7 luglio 2021; Di Stefano, L'utilizzo della Blockchain nel settore forestale per la prevenzione degli illeciti, in Diritto e giur. agraria e dell'ambiente, 2023, I (rivista on-line); Kirsanova ed altri, The use of digital technologies in the administration of justice in the field of environmental crime, in https://www.e3s-conferences.org/articles/e3sconf/abs/2021, 20 maggio 2021; Poccianti, Impatto ambientale: la grande sfida dell'Intelligenza artificiale, in https://www.agendadigitale.eu/cultura-digitale/impatto-ambientale-la-grande-sfida-dellintelligenza-artificiale/, 4 Ottobre 2019; Quaranta, Digitale e ambiente: strumenti di sostenibilità (al plurale), in Ambiente & Sviluppo, 2021, II, 117; Vigl ed altri, Harnessing artificial intelligence technology and social media data to support Cultural Ecosystem Service assessments, in https://besjournals.onlinelibrary.wiley.com/doi/epdf/10.1002/pan3.10199, 15 febbraio 2021.
Si veda https://sdgs.un.org/goals.
Vinuesa ed altri, The role of artificial intelligence in achieving the Sustainable Development Goals, in https://www.nature.com/articles/s41467-019-14108-y, 13 gennaio 2020.
In tema cfr. Finocchiaro, Intelligenza artificiale e transizione ambientale: riflessioni e possibili scenari, in Consulta Online, 3 febbraio 2025.
Nespor, L'attribution science e i danni provocati dal cambiamento climatico, in https://rgaonline.it/, n. 45, settembre 2023.
Butti, Attribution science: la scienza che studia il possibile nesso causale tra alcuni eventi metereologici estremi e il riscaldamento globale, in https://rgaonline.it/, n. 32, giugno 2022.
Rolnick ed altri, Tackling Climate Change with Machine Learning, in https://arxiv.org/abs/1906.05433, 5 novembre 2019.
Maher ed altri, How AI Can Be a Powerful Tool in the Fight Against Climate Change, in https://www.preventionweb.net/publication/how-ai-can-be-powerful-tool-fight-against-climate-change, 14 settembre 2022.
World Economic Forum, Harnessing Artificial Intelligence for the Earth, in https://www3.weforum.org/docs/Harnessing_Artificial_Intelligence_for_the_Earth_report_2018.pdf, 1o luglio 2018.
Francisco, Artificial intelligence for environmental security: national, international, human and ecological perspectives, in https://www.sciencedirect.com/science/article/pii/S1877343522001026, 10 aprile 2023.
European Environment Agency, Digital technologies will deliver more efficient waste management in Europe, in https://www.eea.europa.eu/publications/digital-technologies-will-deliver-more, 3 febbraio 2021.
Per l'utilizzo dell'intelligenza artificiale a tutela degli interessi ambientali quale forma di evoluzione del potere conoscitivo pubblico e le relative prospettive evolutive, cfr. Falcone, Il potere conoscitivo pubblico e la tutela dell'ambiente, della biodiversità e degli ecosistemi. Riflessioni su un interesse collettivo conoscitivamente condizionato, in Riv. quadr. dir. amb., 2024, I, 100.
MASON (edited by), Artificial intelligence and The Environment - AI Blueprints for 16 Environmental Projects Pioneering Sustainability, Harvard Book Store 2019, ISBN 978-1-7335248-0-3.
Sabia, Artificial intelligence and environmental criminal compliance, in Revue Internationale de Droit Pénal, 2020, I, 179.
Cogode, L'impatto dell'intelligenza artificiale sulla profilazione, in https://dirittodiinternet.it/limpatto-dellintelligenza-artificiale-sulla-profilazione/, 25 aprile 2021.
Berk, Artificial Intelligence, Predictive Policing, and Risk Assessment for Law Enforcement, in https://www.annualreviews.org/content/journals/10.1146/annurev-criminol-051520-012342, 13 novembre 2020.
In https://www.un.org/sites/un2.un.org/files/un_ai_advisory_body_governing_ai_for_humanity_interim_report.pdf.
Ruggeri, Ambiente e tecnologie: nuove sfide per la tutela della persona, in https://www.ambientediritto.it, 2023, III (rivista on-line).
Fimiani-Sgorbati, Artificial Intelligence and its application in environmental crimes, in atti della 4 Networks Conference, Cooperation in strengthening environmental enforcement, Roma, 28 – 29 settembre 2023, in https://www.environmentalprosecutors.eu/node/1057, 3 ottobre 2023.
Direttiva 2010/75/Ue del Parlamento europeo e del Consiglio, del 24 novembre 2010, relativa alle emissioni industriali (prevenzione e riduzione integrate dell'inquinamento), c.d. Ied.
In http://impel.eu/projects/environmental-inspections-of-industrial-installations-in-accordance-with-the-industrial-emissionsdirective-ied-drawing-up-of-iram-related-inspection-programmes/.
Inhttps://www.isprambiente.gov.it/files/snpa/consiglio-federale/Delibera63_CFapprovazioneSSPCconallegati.pdf
Decreto legislativo 12 luglio 2024, n. 103, recante Semplificazione dei controlli sulle attività economiche, in attuazione della delega al Governo di cui all'articolo 27, comma 1, della legge 5 agosto 2022, n. 118 (Guri 18 luglio 2024, n. 167). Per un primo commento, si rinvia a P. Fimiani, Le recenti novità sui controlli ambientali: quali riflessi sulla tutela penale?, in Rifiuti-Bollettino di informazione normativa, n. 334, gennaio 2025.
In https://echo.epa.gov/.
In https://www.epa.gov/rcra.
Per approfondimenti si rinvia a https://www.ibm.com/topics/random-forest.
In https://www.epa.gov/enforcement/clean-water-act-cwa-and-federal-facilities.
Cassazione penale, Sezione III, 28 novembre 2019, n. 48401.
Graham ed altri, Managing waste from confined animal feeding operations in the United States: the need for sanitary reform, in https://pubmed.ncbi.nlm.nih.gov/20705978/, 8 giugno 2010.
Conerly, o. e Vazquez Coriano, L. Literature Review of Contaminants in Livestock and Poultry Manure and Implications for Water Quality Report No. EPA 820-R-13-002 (EPA, 2013).
EPA, Literature Review of Contaminants in Livestock and Poultry Manure and Implications for Water Quality Report, in https://nepis.epa.gov/, 10 luglio 2013.
EPA National pollutant discharge elimination system (NPDES) concentrated animal feeding operation (CAFO) reporting rule, in https://www.federalregister.gov/documents/2011/10/21/2011-27189/national-pollutant-discharge-elimination-system-npdes-concentrated-animal-feeding-operation-cafo, 21 ottobre 2011.
Cassandra-Nader-Daniel, Deep learning to map concentrated animal feeding operations, in https://www.nature.com/articles/s41893-019-0246-x, 8 aprile 2019.
L'attività svolta è descritta nel dettaglio da Torres-Fraternali, Learning to Identify Illegal Landfills through Scene Classification in Aerial Images, in https://www.mdpi.com/2072-4292/13/22/4520, 10 novembre 2021.
Du ed altri, Assessing and predicting the illegal dumping risks in relation to road characteristics, in https://www.sciencedirect.com/science/article/pii/S0956053X23005056, 1o settembre 2023.
Sharma ed altri: Applying Machine Learning to Predict Illegal Dumpsites - https://www.omdena.com/blog/illegal-dumping.
Il concetto di profilazione è definito dall'articolo 3, n. 52) dell'AI Act con il richiamo alla definizione dell'articolo 4, punto 4), del regolamento (Ue) 2016/679: "qualsiasi forma di trattamento automatizzato di dati personali consistente nell'utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l'affidabilità, il comportamento, l'ubicazione o gli spostamenti di detta persona fisica". In tema, ex plurimis, cfr. Spangaro, Profilazione e privacy - Il concetto di profilazione tra "direttiva madre" e Gdpr, in Giur. It., 2022, VII, 1577.
Si veda ad esempio il considerando 67, nel quale si discute della qualità dei dati come elemento di impatto sulle prestazioni dei sistemi di IA, dove si invita a prestare "particolare attenzione all'attenuazione di possibili distorsioni nei set di dati, suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell'Unione", ove le "distorsioni intrinseche ai set di dati di base", anche a causa di "circuiti di feed back" possono "perpetuare e amplificare le discriminazioni esistenti, in particolare nei confronti delle persone che appartengono a determinati gruppi vulnerabili, inclusi gruppi razziali o etnici". I considerando 93, 93, 132 ed altri recano contenuti sintonici con tali concetti.
D'altra parte, sia la direttiva 27 aprile 2016, n. 2016/680/Ue relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati, sia il Dlgs 18 maggio 2018, n. 51 che la recepisce, fanno ripetuto riferimento, quale destinataria della tutela, alla persona fisica e, quale "ratio" della disciplina, alla protezione dei suoi dati personali.
I sistemi in parola sono poi da considerare comunque ad alto rischio (AI Act, articolo 6, comma 2, ed allegato III, n. 6) con applicazione della relativa disciplina in tema di produzione ed utilizzo.
La norma prevede, con alcune deroghe, il diritto dell'interessato di non essere sottoposto senza il suo esplicito consenso, a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
AI Act, articolo 5 – Pratiche di IA vietate, comma 1 d).
AI Act, articolo 6, comma - Regole di classificazione per i sistemi di IA ad alto rischio, comma 2.
AI Act, articolo 13 - Trasparenza e fornitura di informazioni ai deployer, comma 1.
Si veda l'articolo 15, comma 3, dell'AI Act (accuratezza, robustezza e cibersicurezza).
Si veda l'articolo 15, comma 2, dell'AI Act, ove la carenza di metriche di accuratezza è considerata un vulnus, per sanare il quale la Commissione europea, in collaborazione con Stakeholders del settore: "… incoraggia, se del caso, lo sviluppo di parametri di riferimento e metodologie di misurazione".
Definita generalmente nel settore come la proporzione di risultati positivi previsti che sono effettivamente corretti.
Definita generalmente nel settore come la proporzione di risultati positivi che sono stati correttamente identificati rispetto al totale dei casi positivi presenti nel campione.
Per informazioni più approfondite è possibile fare ricorso a testi specialistici. Cfr., ex plurimis, Goodfellow, Bengio e Courville, Deep Learning, The MIT Press, 2016, https://www.deeplearningbook.org/; Molnar, Interpretable Machine Learning, Leanpub, 2022, https://christophm.github.io/interpretable-ml-book/.
Berk, Artificial Intelligence, Predictive Policing, and Risk Assessment for Law Enforcement, in Annual review of criminology, 2021, IV, 209-237, https://www.annualreviews.org/content/journals/10.1146/annurev-criminol-051520-012342.
Si veda, ad esempio, tra la vasta pubblicistica sul tema: Grimm, Grossman, Cormak, Artificial Intelligence as Evidence, in Northwestern Journal of Technology and Intellectual Property, 12-2021, https://scholarlycommons.law.northwestern.edu/njtip/vol19/iss1/2/; Ferrara, Fairness and Bias in Artificial Intelligence: A Brief Survey of Sources, Impacts, and Mitigation Strategies, in Sci 2024, 6(1), 3, https://doi.org/10.3390/sci6010003; Malek, Criminal Courts' artificial intelligence: the way it reinforces bias and discrimination, in AI Ethics 2, 233–245 (2022), https://doi.org/10.1007/s43681-022-00137-9; McKay, Predicting risk in criminal procedure: actuarial tools, algorithms, AI and judicial decision-making, in Current Issues in Criminal Justice, (2019) 32(1), 22–39, https://doi.org/10.1080/10345329.2019.1658694.
Si veda AI Act, cons. 67, che sottolinea l'essenzialità dell'impiego di dati di alta qualità e della possibilità di accedervi, nonché l'articolo 10 (Dati e governance dei dati).
Si veda la direttiva (Ue) 2024/1203 del Parlamento europeo e del Consiglio dell'11 aprile 2024 sulla tutela penale dell'ambiente, che sostituisce le direttive 2008/99/Ce e 2009/123/Ce (Ecd) all'articolo 13 Strumenti investigativi.
Si veda la direttiva (Ue) 2024/1203 Ecd all'articolo 22 Dati Strumenti investigativi.
Una diversa ipotesi di utilizzo dell'intelligenza artificiale in funzione di prevenzione dei reati ambientali è quella della c.d. digital compliance, consistente nel fare ricorso a tale tecnologia per l'adozione e l'attuazione di modelli organizzativi adeguati secondo le previsioni delle norme tecniche e del Dlgs n. 231/2001. Trattandosi di tema estraneo a quello di indagine, si rinvia, ex plurimis, a Fimiani L., La tecnologia nel sistema penale: dalla giustizia predittiva alle problematiche sull'utilizzo della "IA" per prevenire episodi criminosi, in discrimen.it, 19 novembre 2024; Fusco, Intelligenza artificiale: la ricerca del "colpevole" e i possibili impatti sul decreto 231, in Rivista 231, 2023, I, 49; Mongillo, Responsabilità da reato degli enti e crimini connessi all'intelligenza artificiale: tecniche giuridiche di intervento e principali ostacoli, in Archivio penale web, 10 giugno 2024; Morgante, Fiorinelli, Promesse e rischi della compliance penale digitalizzata, in Archivio penale web, 28 giugno 2022; Nisco, Riflessi della compliance digitale in ambito 231, in sistemapenale.it, 14 marzo 2021.
Per un esame più approfondito della questione si rinvia a Fimiani P., La tutela penale dell'ambiente, Giuffrè, 2022, 1177.
Secondo Cassazione penale, Sezione III, n. 16683/2009 "l'utilizzabilità in fase di indagine preliminare dei risultati degli accertamenti tecnici compiuti dalla polizia giudiziaria con il ricorso alla collaborazione di ausiliari non richiede che costoro siano individuati con l'osservanza delle forme e delle modalità previste per la nomina del consulente tecnico del Pubblico Ministero".
Cfr., ex plurimis, Cassazione penale, Sezione III, n. 11598/1993, n. 9739/1999, n. 1773/2000, n. 23369/2002, n. 15170/2003, n. 15372/2010, n. 10484/2015 e n. 35610/2016.
Cassazione penale, Sezione III, n. 2571/1993. In tema, cfr. Corte Costituzionale n. 330/1990, secondo cui è legittima la norma (nella specie articolo 15, comma 7, legge n. 319/1976) che non preveda il preavviso delle operazioni di campionamento delle acque, al fine di accertare se queste superino i limiti di accettabilità stabiliti dalla legge e dell'adozione delle misure antinquinamento, poiché altrimenti il responsabile potrebbe far sparire le tracce di ogni irregolarità degli scarichi e pregiudicare l'attività amministrativa diretta alla tutela delle acque dall'inquinamento.
Ex plurimis, Cassazione penale, Sezione III, n. 5742/2017 e ivi rif.
Chiari, Formazione e valutazione della prova nei reati in materia ambientale. Prelievi, campionamenti e analisi delle acque, in Riv. giur. ambiente, 1996, 417; Giarda, Prelievo, campionamento ed analisi di acque e legge Merli: alcune precisazioni della Corte Costituzionale, nota a Corte cost., n. 330/1990, in Riv. it. dir. proc. pen., 1990, 1614; Ubertis, L'utilizzazione dibattimentale di prelievi ed analisi di campioni, in Cass. pen., 1992, 428.
Chiari, Formazione e valutazione …, cit., 419. Nella stessa prospettiva, Cassazioen penale, Sezione III, n. 24640/2009 afferma che "quando un accesso ispettivo presso un'azienda è mirato a verificare le caratteristiche di un nuovo impianto privo di autorizzazione è legittimo il prelievo di un campione del materiale utilizzato in una fase di lavorazione in funzione di un'attività ispettiva e di vigilanza che non mira all'accertamento del limite di una determinata sostanza può farsi ricorso alla procedura di cui all'articolo 223 disp. att. c.p.p.".
Chiari, Formazione e valutazione …, cit., 421. Per un caso pratico, cfr. Pret. Mantova, 3 marzo 1994, M. e altri, in Foro It., 1995, P. II, 594, con nota di Corbo, secondo cui la mera segnalazione di un presunto inquinamento di un canale non aveva determinato la necessità, per i vigili sanitari recatisi a controllare gli scarichi di uno degli insediamenti produttivi cui in astratto avrebbe potuto addebitarsi la causa del fenomeno, di eseguire campionamenti e prelievi nel rispetto delle garanzie difensive previste dagli articoli 354 e 356 c.p.p. e 220 disp. att. c.p.p.
Osserva in proposito Cassazione penale, Sezione VI, n. 11076/1999 che dall'articolo 220 disp. att. c.p.p. si evince, a contrario, che l'obbligo di procedere con l'osservanza delle norme del codice non ricorre quando, ancora, non sono emersi elementi di colpevolezza nei riguardi di chi è sottoposto all'atto ispettivo o di vigilanza. Secondo Sezione III, n. 10822/2009 occorre procedere con le garanzie previste dalla legge processuale "nei casi in cui gli operatori intervengono presso il sito interessato sulla base di una segnalazione che contiene notizia di reato sufficientemente circostanziata, e non la mera eventualità di illecito, sempre che la segnalazione consenta di individuare la persona responsabile cui dette garanzie debbono applicarsi"; Sezione III, n. 19881/2009, richiede dette garanzie "soltanto se le operazioni di prelievo siano state eseguite su disposizione del magistrato o se sia stato individuato un soggetto determinato, indiziabile di reati" (conforme Sezione III n. 16386/2010, secondo cui "il presupposto per l'operatività dell'articolo 220 disp. att. c.p.p. e dunque per il sorgere dell'obbligo di osservare le disposizioni del codice di procedura penale per assicurare le fonti di prova e raccogliere quant'altro possa servire ai fini dell'applicazione della legge penale, è costituito dalla sussistenza della mera possibilità di attribuire comunque rilevanza penale al fatto che emerge dall'inchiesta amministrativa e nel momento in cui emerge, a prescindere dalla circostanza che esso possa essere riferito ad una persona determinata"). Principi ribaditi da Cassazione penale, Sezione III, n. 26429/2016.
Cassazione penale Sezione III, n. 36626/2019 e ivi rif. (in particolare, Sezione III, n. 16044/2019 da cui sono riprese le ultime considerazioni).
Va peraltro precisato che non è sufficiente invocare la violazione dell'articolo 220 disp. att. c.p.p., ma sull'interessato "incombe un duplice onere: quello di dimostrare l'incidenza dell'inutilizzabilità sulla decisione e di indicare gli atti che, resisi necessari per assicurare le fonti di prova e raccogliere quant'altro possa servire per l'applicazione della legge penale, siano stati acquisiti nel corso di attività ispettive o di vigilanza senza l'osservanza delle disposizioni del codice di procedura penale" (Cassazione penale Sezione III, n. 18385/2021, che richiama precedenti conformi).
Il Considerando 59 recita: "… L'utilizzo degli strumenti di IA da parte delle autorità di contrasto e delle altre pertinenti autorità non dovrebbe diventare un fattore di disuguaglianza o esclusione. L'impatto dell'utilizzo degli strumenti di IA sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati in tribunale, in particolare per le persone fisiche sottoposte a indagini".
Il considerando 61 recita: "Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi".
Cassazione penale, Sezione IV, n. 43786/2010.
Si veda l'articolo 10 (Dati e Governance dei Dati) dell'AI Act, applicabile ai sistemi di IA ad alto rischio, che prevede che essi siamo sviluppati "sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità" descritti nell'articolo 10 stesso.
Il soggetto obbligato a dimostrare i criteri di qualità dei dati utilizzati per l'addestramento del sistema è il suo fornitore, ai sensi dell'articolo 16, comma k), per altro solo "su richiesta motivata di un'autorità nazionale competente".
La descrizione dell'accuratezza di un sistema di AI utilizza vari parametri, tra i quali la percentuale di correttezza delle previsioni effettuate (precisione) e la capacità di identificare i casi positivi tra quelli sottoposti ad esame (recall).
Precisa la Giurisprudenza che: "gravi sono gli indizi consistenti, cioè resistenti alle obiezioni, e quindi attendibili e convincenti; precisi sono quelli non generici e non suscettibili di diversa interpretazione altrettanto o più verosimile e, perciò, non equivoci; concordanti sono quelli che non contrastano tra loro e più ancora con altri dati o elementi certi. La precisione dell'indizio, in particolare, ne suppone la certezza, nel senso dell'accertata verificazione storico-naturalistica della circostanza che lo costituisce, per obiettiva esistenza direttamente assodata o per deduzione inequivoca e sicura da altri elementi e per esclusione, per contro, di difforme o antitetica significazione. Il rigoroso ed obiettivo accertamento del dato ignoto, cui è possibile pervenire su base indiziaria, deve essere, pertanto, lo sbocco necessitato e strettamente conseguenziale, sul piano logico-giuridico, delle premesse indiziarie in fatto, con esclusione di ogni altra soluzione prospettabile, in termini di equivalenza o di alternatività. Il giudizio conclusivo, in altre parole, deve essere l'unico possibile alla stregua degli elementi disponibili, secondo i criteri di razionalità dettati dall'esperienza umana" (Cassazione penale, Sezione I, n. 9700/1992). Peraltro, "il requisito della molteplicità, che consente una valutazione di concordanza, e quello della gravità sono tra loro collegati e si completano a vicenda, nel senso che, in presenza di indizi poco significativi, può assumere rilievo l'elevato numero degli stessi, quando una sola possibile è la ricostruzione comune a tutti, mentre, in presenza di indizi particolarmente gravi, può essere sufficiente un loro numero ridotto per il raggiungimento della prova del fatto" (Cassazione penale, Sezione V, n. 36152/2019). Per un quadro completo ed aggiornato dei criteri di esame della prova indiziaria, v. anche, da ultimo, Cassazione penale, Sezione IV, n. 32936/2024.
Il tema è trattato in un importante settore specifico di ricerca, Explanable AI (o XAI) che ha lo scopo di conseguire gli obiettivi di trasparenza, interpretabilità e spiegabilità a vantaggio dell'impiego di sistemi di AI in applicazioni critiche dal punto di vista tecnico ed etico. Quale bibliografia essenziale si può fare riferimento a: Longo, Luca; et al. (2024). Explainable Artificial Intelligence (XAI) 2.0: A manifesto of open challenges and interdisciplinary research directions. Information Fusion. 106. doi:10.1016/j.inffus.2024.102301; Castelvecchi, Davide (2016-10-06). Can we open the black box of AI?. Nature. 538 (7623): 20–23. Bibcode:2016Natur.538...20C. doi:10.1038/538020a. ISSN 0028-0836. PMID 27708329; Loyola-González, O. (2019). Black-Box vs. White-Box: Understanding Their Advantages and Weaknesses From a Practical Point of View. IEEE Access. 7: 154096–154113; Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. DeepAI. 2019-10-22. Retrieved 2021-01-13
Osserva Ficco, Rentri, senza intelligenza artificiale l'enorme base dati non servirà a combattere i traffici illeciti di rifiuti, in "Rifiuti - Bollettino di informazione normativa", n. 334 gennaio 2025, che al Rentri "manca ancora una cosa (ma potrebbe intervenire nel tempo): lo scintillio del silicio dei sistemi di intelligenza artificiale che ausilino l'analisi probabilistica del rischio di traffico illecito; sistemi alimentati dalla base dati di cui il sistema camerale e quello dei controlli già dispone. Questa deve essere la linea tendenziale di un sistema affatto semplice; diversamente, ha poco senso. La difficoltà di approccio non viene compensata (ancora) né dal beneficio pubblico di capire (quasi) immediatamente dove si annidano le zone oscure delle transazioni né dal beneficio privato di semplificazione della propria condotta".