Il procedimento algoritmico nel prisma della trasparenza

Tags:

Il procedimento algoritmico nel prisma della trasparenza

DOI: 10.13130/2723-9195/2026-2-12
Tags:

Il presente elaborato si propone di ricostruire lo stato dell’arte in materia di applicazione dell’intelligenza artificiale al procedimento amministrativo. Dopo aver delineato il quadro normativo di riferimento e le principali coordinate teoriche, l’analisi si concentra sulla distinzione tra attività vincolata e attività discrezionale della pubblica amministrazione, indagando le implicazioni giuridiche, organizzative e di responsabilità derivanti dall’utilizzo di sistemi algoritmici nei due ambiti. In conclusione, vengono tratte alcune considerazioni sistematiche volte a individuare, nella trasparenza e nella motivazione dell’atto, i presidi essenziali per garantire la legalità e la legittimità dell’azione amministrativa nell’era dell’amministrazione algoritmica.


The Algorithmic Procedure through the Lens of Transparency
This paper aims to reconstruct the current state of the art regarding the application of artificial intelligence within administrative procedures. After outlining the relevant regulatory framework and the main theoretical coordinates, the analysis focuses on the distinction between bound and discretionary administrative activity, examining the legal, organisational, and accountability implications arising from the use of algorithmic systems in both contexts. The paper concludes by offering some systematic considerations, identifying transparency and the duty to provide reasons as the essential safeguards to ensure the legality and legitimacy of administrative action in the era of algorithmic governance.
Sommario: 1. Introduzione.- 2. Riferimenti normativi e quadro regolatorio.- 3. Algoritmo e intelligenza artificiale: definizioni ed evoluzione.- 4. Model-based A.I. e attività vincolata della pubblica amministrazione.- 5. Machine learning A.I. e attività discrezionale della pubblica amministrazione.- 6. Il procedimento algoritmico nel prisma della trasparenza.- 7. Conclusioni.

1. Introduzione

La decisione algoritmica – intendendosi, per tale, il processo decisionale della pubblica amministrazione supportato, ovvero delegato, all’intelligenza artificiale (d’ora innanzi anche A.I.) – costituisce uno dei temi più complessi, quanto affascinanti, del diritto amministrativo contemporaneo.

Invero, la rapida diffusione e, ancor più, la crescente accessibilità delle piattaforme di intelligenza artificiale[1] hanno da tempo stimolato una riflessione, in dottrina[2] come in giurisprudenza, sulle modalità e sui limiti del loro impiego nell’azione amministrativa.

In particolar modo, l’intelligenza artificiale si configura quale tappa di un più ampio processo di «informatizzazione istituzionale», che vede la pubblica amministrazione al centro di una progressiva dematerializzazione dei dati e di una parallela spersonalizzazione dell’agere amministrativo, accompagnata dallo sviluppo di tecniche di adozione dei provvedimenti in forma elettronica[3].

Può dirsi, in altri termini, che l’intelligenza artificiale tende a mettere in discussione quel «principio antropocentrico»[4] che tradizionalmente informa l’attività amministrativa, fondato sull’insostituibilità della valutazione e della volontà umana nell’esercizio del potere pubblico.

Pacifico, invero, che l’intelligenza artificiale possa configurarsi quale strumento di supporto all’attività amministrativa, dirompente è, tuttavia, il dibattito concernente i limiti di tale impiego: in altri termini, secondo quali modalità – e nel rispetto di quali regole – essa possa essere legittimamente utilizzata nei procedimenti amministrativi.

Dovrà ricordarsi, infatti, che l’attività amministrativa è sorretta da taluni principi – si pensi a legalità, imparzialità e buon andamento, ex art. 97 Cost. – che costituiscono imprescindibili vincoli nell’esercizio del potere amministrativo, ai quali l’intelligenza artificiale non può sottrarsi in alcun modo[5].

In tal senso, è evidente che l’introduzione dell’intelligenza artificiale nel diritto amministrativo contemporaneo solleva questioni di rilevante importanza: anzitutto, come un algoritmo sia in grado di adottare decisioni; in secondo luogo, come esso possa garantire gli istituti di partecipazione procedimentale previsti dalla legge; infine, come si eserciti il sindacato giurisdizionale su un provvedimento adottato con il supporto dell’A.I.

Non meno problematico risulta, inoltre, coniugare il principio di legalità con il processo di automazione dell’attività amministrativa. Invero, la decisione algoritmica tende a enfatizzare il risultato anziché il percorso seguito per raggiungerlo – percorso che, com’è noto, nel diritto amministrativo è rigidamente vincolato alla legge. Il rischio, in tale prospettiva, è quello di snaturare la stessa essenza del provvedimento amministrativo, il quale potrebbe divenire oscuro e, dunque, difficilmente riconducibile alla propria base legale[6].

A tale apparente conflitto, prima la dottrina e poi la giurisprudenza hanno progressivamente[7] cercato di porre rimedio, elaborando il concetto di legalità c.d. algoritmica. Con tale espressione si intende il tentativo di ricondurre la decisione automatizzata nell’alveo del principio di legalità, attraverso un meccanismo che valorizzi la trasparenza dell’algoritmo e della decisione che ne deriva, la riserva di umanità all’interno del procedimento algoritmico e la non discriminazione algoritmica[8].

Il tema assume particolare rilievo nel quadro complessivo dell’esercizio del potere amministrativo, poiché, come si dirà infra, l’introduzione dell’intelligenza artificiale incide direttamente sulle modalità di formazione e di espressione della volontà della pubblica amministrazione.

2. Riferimenti normativi e quadro regolatorio

In primo luogo, si rende necessario ricostruire, in via sintetica, il quadro giuridico di riferimento che disciplina la materia dell’intelligenza artificiale, con particolare riguardo alla sua applicazione nei processi decisionali della pubblica amministrazione.

Invero, come si avrà modo di approfondire infra, gran parte degli interventi normativi e delle riflessioni giuridiche sul punto sono di recente elaborazione, in quanto – come già anticipato – l’utilizzo concreto dell’A.I. nell’ambito dell’azione amministrativa è fenomeno emerso solo negli ultimi anni, parallelamente allo sviluppo tecnologico e alla crescente attenzione istituzionale per le implicazioni etiche e giuridiche connesse.

In tale prospettiva, il quadro normativo può essere articolato in due distinti ambiti: la normazione di matrice europea, che rappresenta – per la sua natura e primarietà – il principale riferimento in materia di intelligenza artificiale; e la normazione nazionale, che si pone in rapporto di attuazione e adattamento rispetto ai principi e alle disposizioni delineati a livello sovranazionale.

In ambito europeo, merita anzitutto una breve riflessione il Regolamento (UE) 2016/679, c.d. G.D.P.R.[9].

Adottato nella forma del regolamento – e, come tale, direttamente applicabile in tutti gli Stati membri senza necessità di recepimento – esso disciplina in modo organico le modalità, i limiti e le garanzie relative al trattamento dei dati personali, ponendosi come pietra angolare della tutela dei diritti fondamentali nell’ambiente digitale.

Ai fini della presente trattazione, ci si limiterà a rilevare che il Regolamento non disciplina direttamente l’intelligenza artificiale; tuttavia, all’art. 22, introduce un principio di particolare rilievo, in quanto, tra i diritti riconosciuti all’«interessato»[10], prevede la garanzia di non poter «essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona» (par. 1).

In caso contrario – ossia quando il trattamento avviene esclusivamente in modo automatizzato, inclusa la «profilazione»[11] – l’interessato ha il diritto di opporsi. Nel qual caso il «titolare del trattamento»[12] è tenuto a sospendere immediatamente l’elaborazione, fino a quando non dimostri all’interessato che il processo automatizzato non compromette i suoi diritti e le sue libertà.

Già allora, dunque, il legislatore ha introdotto una vera e propria «riserva di umanità», prevedendo che, in sede di trattamento dei dati personali, la scelta umana non sia mai costituita completamente da processi automatizzati ma che, in qualche modo, debba essere controllata dall’intervento umano[13].

Inoltre, l’art. 22 G.D.P.R. è da leggersi in combinato disposto col Considerando 71, che, con riferimento al trattamento automatizzato dei dati personali, prevede, tra l’altro, che «L’interessato dovrebbe avere il diritto di non essere sottoposto a una decisione, che possa includere una misura, che valuti aspetti personali che lo riguardano, che sia basata unicamente su un trattamento automatizzato e che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona, quali il rifiuto automatico di una domanda di credito online o pratiche di assunzione elettronica senza interventi umani […]».

In definitiva, il G.D.P.R. riconosce all’interessato un vero e proprio «diritto soggettivo»[14] a non essere sottoposto a decisioni basate esclusivamente su processi automatizzati, garantendo la possibilità di un controllo umano e la protezione dei propri diritti e delle proprie libertà fondamentali.

Tuttavia, è solo a partire dal 2018 che l’Unione europea ha avviato un articolato percorso normativo volto a disciplinare, in maniera organica e coerente, il fenomeno dell’intelligenza artificiale. In tale contesto, viene dapprima adottata una prima Comunicazione sull’A.I.[15], cui segue, nel 2020, la pubblicazione del Libro bianco sull’intelligenza artificiale[16]. Da ultimo, nel 2021, la Commissione presenta una nuova Comunicazione, accompagnata dalla proposta di Regolamento europeo sull’intelligenza artificiale (c.d. Artificial Intelligence Act, d’ora innanzi anche A.I. Act o, più semplicemente, Regolamento)[17].

L’A.I. Act costituisce, a livello mondiale, il primo tentativo di definire un quadro giuridico comune per lo sviluppo e l’utilizzo dell’intelligenza artificiale, fissando regole omogenee e vincolanti per tutti gli Stati membri dell’Unione europea.

Invero, come già avvenuto con il G.D.P.R., l’Unione europea ha scelto di intervenire mediante uno strumento giuridico di diretta applicazione – il regolamento – con l’evidente fine di «ravvicinare le legislazioni, il completamento e il buon funzionamento del mercato interno, nella sua species di mercato unico digitale (MUD)»[18].

Può dirsi, in altri termini, che il Regolamento abbia sia una portata esterna che interna: esterna, in quanto è «espressione della volontà dell’UE di delineare a livello sovranazionale uno standard globale per l’uso etico, sicuro e affidabile delle applicazioni AI»[19]; interna, in quanto tocca trasversalmente, negli Stati membri, tutti i settori, con l’ambizioso obiettivo di «non pregiudicare la normativa vigente dell’Unione in materia di protezione dei dati, di tutela dei consumatori, dei diritti fondamentali, di occupazione e protezione dei lavoratori e di sicurezza dei prodotti, affermando la propria natura di legislazione complementare a tali sistemi normativi, non prevedendo quindi nuove tipologie di diritti da tutelare rispetto a quelli esistenti, ed operando di fatto un rinvio a questi ultimi»[20].

Per ragioni di brevità[21], del Regolamento – adottato a conclusione di un articolato iter normativo[22] – si ripercorrono gli aspetti più salienti.

Una prima, rilevante novità introdotta dal Regolamento consiste nella definizione di sistema di intelligenza artificiale, contenuta all’art. 3, par. 1.

Tale definizione, la cui analisi sarà affrontata infra (par. 3), costituisce il fulcro dell’intero impianto normativo, delinea i confini oggettivi di applicazione dell’A.I. Act e consente di distinguere i sistemi rientranti nel suo ambito da quelli esclusi.

Ancora, col fine, tra l’altro, di «garantire un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea […], compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell’Unione» (Considerando 1), l’Unione Europea ha introdotto quattro categorie di «rischio»[23] dei sistemi A.I., ognuna delle quali si riferisce ad un diverso grado di intervento normativo: inaccettabile, alto, limitato e minimo.

Può dirsi, in altri termini, che il Regolamento delinea un sistema di rischio a gradazione variabile, in quanto fondato su un approccio proporzionato al livello di rischio connesso all’utilizzo dei sistemi di A.I.

In particolare, l’impianto normativo prevede una scala di intensità regolatoria che si estende dall’assenza quasi totale di vincoli per i sistemi a rischio minimo o nullo – per i quali è riconosciuto un ampio margine di libertà operativa – fino all’introduzione di obblighi stringenti per i sistemi ad alto rischio, secondo le disposizioni del Capo II del Regolamento, caratterizzati da un potenziale impatto significativo sui diritti fondamentali o sulla sicurezza pubblica.

Nei casi più estremi, ossia laddove il rischio sia considerato inaccettabile, il Regolamento, con le disposizioni contenute nel Capo III, giunge a vietare espressamente determinate pratiche di intelligenza artificiale, ponendo così un limite invalicabile all’automazione in contrasto con i valori fondanti dell’ordinamento europeo.

In tale prospettiva, appare evidente come maggiore sia il rischio connesso al sistema di A.I., più stringenti debbano essere le garanzie poste a tutela dei diritti fondamentali e della protezione dei dati personali.

Da qui si origina il delicato rapporto di complementarità – ma anche di potenziale frizione – tra il Regolamento sull’Intelligenza artificiale e il G.D.P.R., oggetto di ampio dibattito dottrinale, in quanto entrambi, pur perseguendo finalità diverse, incidono su un medesimo terreno: quello del bilanciamento tra innovazione tecnologica e tutela della persona[24].

I differenti livelli di rischio associati ai sistemi di intelligenza artificiale determinano la misura e la natura degli obblighi informativi e di trasparenza imposti agli operatori.

In particolare, l’art. 13 del Regolamento, rubricato «Trasparenza e fornitura di informazioni ai deployer», stabilisce, al par. 1, che «I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l’output del sistema e utilizzarlo adeguatamente […]».

A tal fine, la disposizione prevede, tra l’altro, che, ai sistemi di A.I. ad alto rischio siano allegate delle istruzioni per l’uso, «in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer», secondo gli standard minimi previsti al successivo par. 3.

Gli obblighi di trasparenza – seppur «relativi»[25] – sono finalizzati a ridurre gli effetti della cosiddetta «black box», ossia quella opacità algoritmica che rende difficoltosa la comprensione delle logiche decisionali sottese al funzionamento dei sistemi di intelligenza artificiale.

Proseguendo nella trattazione, l’art. 14 del Regolamento introduce un ulteriore elemento di rilievo, concernente l’obbligo di supervisione umana sui sistemi di intelligenza artificiale, in particolare su quelli qualificati come ad alto rischio: «I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso» (par. 1).

Il Regolamento prevede, in tal senso, una «riserva di umanità» – che, come si avrà modo di approfondire, è stata ampiamente accolta dalla giurisprudenza nazionale – nel senso che l’impiego dell’intelligenza artificiale è ammesso, purché avvenga sotto la costante supervisione e il controllo umano.

Come, infatti, chiarisce il par. 2 della disposizione, «La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile […]».

Deve ritenersi, in altri termini, che il legislatore europeo, pur riconoscendo l’autonomia operativa dei sistemi di intelligenza artificiale, non intenda mai sostituire integralmente il giudizio umano con quello algoritmico, ma piuttosto affiancarlo e guidarlo, assicurando che ogni decisione automatizzata resti soggetta a una forma di controllo, verifica e responsabilità umana.

Da ultimo, merita particolare attenzione il complesso apparato sanzionatorio delineato dal Capo XII.

Invero, il legislatore europeo ha previsto un sistema graduato di sanzioni amministrative pecuniarie, commisurate alla gravità della violazione e alla natura del soggetto responsabile, ispirandosi, nella sua struttura, al modello già sperimentato con il G.D.P.R.[26].

In tal senso, il sistema sanzionatorio è affidato alle autorità nazionali di vigilanza, che operano in coordinamento con l’Ufficio europeo per l’intelligenza artificiale (A.I. Office), al fine di garantire un’applicazione uniforme delle norme in tutti gli Stati membri.

Di pari passo con lo sviluppo normativo di matrice comunitaria, anche in Italia si è progressivamente avvertita la necessità di definire un quadro regolatorio nazionale in materia di intelligenza artificiale.

L’esigenza è stata resa ancor più evidente da una giurisprudenza inizialmente oscillante sul tema, che, dopo una fase di chiusura verso l’utilizzo dell’A.I. nei procedimenti amministrativi, ha progressivamente ammesso forme di integrazione tecnologica anche in ambiti più sensibili, sino a contemplarne l’applicazione nell’attività discrezionale della pubblica amministrazione.

Tale evoluzione ha trovato un punto di svolta nella sentenza n. 2270 del 2019 del Consiglio di Stato, che, per la prima volta, ha riconosciuto la legittimità dell’impiego di algoritmi nei procedimenti amministrativi, a condizione che siano rispettati i principi di trasparenza, conoscibilità e controllo umano sull’esito finale del processo decisionale.

Tuttavia, nonostante la rapida evoluzione tecnologica e il parallelo sviluppo del diritto europeo, la normazione dell’intelligenza artificiale nel diritto amministrativo italiano si è mossa con notevole ritardo.

A titolo esemplificativo, la legge n. 241 del 1990, che rappresenta tutt’oggi il fondamento dell’azione amministrativa, non ha subìto, nel corso degli anni, significativi aggiornamenti[27], tali da recepire le nuove modalità digitali e algoritmiche di esercizio del potere pubblico[28].

In ambito nazionale, in materia di intelligenza artificiale, è possibile distinguere tra una disciplina di carattere generale e discipline di natura settoriale.

Tra le seconde – che riguardano, per l’appunto, specifici ambiti operativi – rientrano, a titolo meramente esemplificativo, l’art. 30, d. lgs. n. 36/2023[29], che, in materia di appalti pubblici, prevede che «le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti». E ancora, l’art. 2, co. 1, d. lgs. n. 13/2024, che, in materia tributaria, nel disciplinare «l’analisi del rischio», alla lett. f), ammette espressamente il ricorso all’«analisi probabilistica», intendendosi per tale l’«insieme dei modelli e delle tecniche di analisi che, sfruttando soluzioni di intelligenza artificiale ovvero di statistica inferenziale, consentono di isolare rischi fiscali, anche non noti a priori, che, una volta individuati, possono essere utilizzati per l’elaborazione di autonomi criteri selettivi, ovvero permettono di attribuire una determinata probabilità di accadimento a un rischio fiscale noto»[30].

Con riguardo, invece, al quadro regolatorio generale, merita menzione la legge n. 132 del 2025, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale», la quale, adottata in parallelo all’A.I. Act (recte: in anticipo, rispetto alla sua effettiva applicazione[31]), segna l’avvio di una disciplina organica dell’intelligenza artificiale all’interno dell’ordinamento giuridico italiano.

Parimenti alla normazione comunitaria, la legge n. 132/2025, nel recare «princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale» punta a promuovere «un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità», oltre che a garantire «la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale» (art. 1).

Lungi dal voler procedere a un’esposizione analitica di ciascuna delle disposizioni contenute nell’atto normativo, si intende proporre una ricognizione sintetica dei suoi profili di maggiore rilievo.

Anzitutto, l’art. 1, co. 2, l. n. 132/2025, stabilisce che le disposizioni della stessa debbano essere interpretate e applicate conformemente all’I.A. Act, sì da configurare un rapporto di coordinamento e integrazione sistematica tra la normativa nazionale e quella europea in materia di intelligenza artificiale.

La normativa italiana, dunque, completa la cornice comunitaria, ponendosi come strumento di attuazione e adattamento interno dei principi e delle regole dettate dall’A.I. Act.

Ancora, l’art. 4 della legge n. 132/2025 riprende e sviluppa i principi fondamentali in materia di trattamento dei dati personali già sanciti dal G.D.P.R., adattandoli al peculiare contesto dell’intelligenza artificiale.

Più nello specifico, il co. 2 della disposizione prevede che «L’utilizzo di sistemi di intelligenza artificiale garantisce il trattamento lecito, corretto e trasparente dei dati personali e la compatibilità con le finalità per le quali sono stati raccolti, in conformità al diritto dell’Unione europea in materia di dati personali e di tutela della riservatezza».

In altri termini, l’art. 4 della legge in commento recepisce i principi cardine in materia di tutela e trattamento dei dati personali, adattandoli, tuttavia, al contesto tecnologico e comunicativo dell’A.I.

Il Capo II del testo normativo, invece, introduce una serie di disposizioni settoriali, volte a disciplinare l’impiego dell’A.I. in ambiti particolarmente sensibili dell’ordinamento. In tale prospettiva, il legislatore interviene, tra l’altro, in materia sanitaria e di disabilità (art. 7), di ricerca e sperimentazione scientifica (art. 8), di rapporti di lavoro (art. 11), nonché con riferimento alle professioni intellettuali (art. 13) e all’attività giudiziaria (art. 15).

Di particolare rilievo è l’art. 14, che introduce disposizioni sull’uso dell’intelligenza artificiale nella pubblica amministrazione.

In tale prospettiva, il legislatore ha inteso incentivare l’utilizzo dello strumento algoritmico, in quanto, per il tramite dello stesso, ritiene sia possibile «incrementare l’efficienza» dell’attività amministrativa, «ridurre i tempi di definizione dei procedimenti», oltre che «aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo» (co. 1).

Ai fini della presente trattazione è certamente impattante il successivo co. 2, secondo cui «L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale».

Si ritiene, invero, che la disposizione vada a riaffermare la centralità dell’essere umano nei processi decisionali pubblici, con l’A.I. che, pur potendo coadiuvare l’attività amministrativa attraverso strumenti di analisi, previsione o automazione procedurale, mantiene un ruolo meramente strumentale e ausiliario.

In altri termini, il potere decisionale e la conseguente responsabilità non possono mai essere trasferiti alla macchina, ma rimangono saldamente in capo al funzionario o all’organo titolare del procedimento.

Da ultimo, la l. n. 132/2025 individua le autorità competenti per la vigilanza e il controllo sull’attuazione della normativa nazionale e dell’A.I. Act, nonché, più in generale, sull’intero settore dell’A.I.

Più nello specifico, l’articolo 20 della legge n. 132/2025 individua l’Agenzia per l’Italia Digitale, c.d. AgID, e l’Agenzia per la Cybersicurezza Nazionale, c.d. ACN, quali Autorità nazionali competenti in materia di intelligenza artificiale[32].

Resta, in ogni caso, impregiudicato il ruolo di vigilanza settoriale svolto dalla Banca d’Italia, dalla CONSOB e dall’IVASS nei rispettivi ambiti bancario, finanziario e assicurativo, in conformità a quanto previsto dall’art. 74, paragrafo 6, dell’A.I. Act.

3. Algoritmo e intelligenza artificiale: definizioni ed evoluzione

Prima di approfondire i profili giuridici connessi all’impiego dell’intelligenza artificiale, appare opportuno soffermarsi – senza pretese di esaustività – sui concetti di intelligenza artificiale e di algoritmo, delineandone brevemente l’evoluzione storica e concettuale.

Anzitutto, giova ricordare che l’intelligenza artificiale non rappresenta un ambito di studio recente. Le sue origini, infatti, possono essere ricondotte al 1956, quando, nel corso di un celebre workshop organizzato presso il Dartmouth College (Stati Uniti), alcuni studiosi – John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester – si proposero di elaborare un sistema capace di ragionare, apprendere e agire in modo analogo all’essere umano.

L’attuale intelligenza artificiale rappresenta, dunque, la tappa più recente di un lungo processo evolutivo, che, a partire dalle prime sperimentazioni teoriche della metà del Novecento, ha progressivamente condotto allo sviluppo di sistemi sempre più complessi, fondati su tecniche di machine learning e deep learning.

Non esiste una definizione univoca di intelligenza artificiale[33].

Ai fini della presente trattazione, si assume quale punto di riferimento la definizione di intelligenza artificiale fornita dall’A.I. Act, secondo cui essa consiste in «un sistema automatizzato progettato per operare con livelli di autonomia variabili e in grado di mostrare capacità di adattamento successivamente alla diffusione, che, per obiettivi espliciti o impliciti, deduce dall’input ricevuto le modalità per generare output – quali previsioni, contenuti, raccomandazioni o decisioni – idonei a influenzare ambienti fisici o virtuali» (Art. 3).

Della definizione, ci si soffermerà, in particolar modo, su due aspetti: anzitutto, sull’autonomia del sistema informatizzato; in secondo luogo, sul risultato, ossia sulla capacità dell’A.I. di generare, a partire dagli input ricevuti, output idonei a determinare effetti in ambienti fisici o virtuali.

Con riferimento al secondo aspetto – il Regolamento europeo distingue quattro diverse tipologie di output: previsioni, contenuti, raccomandazioni e decisioni.

Tali categorie sono puntualmente descritte nella Comunicazione della Commissione Europea recante «Orientamenti della Commissione sulla definizione di sistema di intelligenza artificiale stabilita dal regolamento (UE) 2024/1689 (regolamento sull’IA)», di cui si riportano brevemente i contenuti principali.

Anzitutto, la previsione può considerarsi una «stima di un valore sconosciuto (l’output) a partire da valori noti forniti al sistema (l’input)» (Sez. 6 della Comunicazione, punto 54).

In altri termini, la previsione può definirsi una stima basata su dati noti, finalizzata a generare un risultato (output) che altrimenti sarebbe sconosciuto.

Ancora, l’output può consistere in un contenuto, ossia nel risultato della generazione di «nuovo materiale» da parte di un sistema di intelligenza artificiale. Output che può «comprendere testi, immagini, video, musica e altre forme di contenuti» (Sez. 6, punto 56).

In altre parole, l’intelligenza artificiale, partendo da determinati dati o output già esistenti, è in grado di generare nuovi contenuti o informazioni, elaborando, combinando e trasformando quanto disponibile, così da produrre risultati originali o stime di valori ancora sconosciuti.

Infine, l’A.I. è in grado di generare tanto raccomandazioni, intendendosi per tali suggerimenti per azioni, prodotti o servizi specifici rivolti agli utenti sulla base delle loro preferenze, dei loro comportamenti o di altri input di dati (sez. 6, punto 57); quanto decisioni, intese come conclusioni o scelte effettuate da un sistema (sez. 6, punto 58).

Con riferimento, invece, al primo aspetto – va sottolineato come l’intelligenza artificiale sia in grado di operare in modo autonomo, elaborando gli input che le vengono forniti secondo livelli di complessità e variabilità differenti. Utilizzando le parole della Commissione Europea, nella succitata Comunicazione, i sistemi di A.I. sono progettati per funzionare con «un certo grado di autonomia di azione rispetto al coinvolgimento umano e di capacità di funzionare senza l’intervento umano» (sez. II, punto 14).

Tale capacità dei sistemi di intelligenza artificiale di operare autonomamente e di generare output complessi non è casuale, ma è determinata dallalgoritmo che ne definisce la logica operativa.

Invero, di algoritmo, in alcune significative pronunce, la giurisprudenza amministrativa ne ha fornito una propria definizione, contribuendo a chiarirne la natura e il ruolo nell’ambito dei procedimenti amministrativi.

Tra queste, assume particolare rilievo la sentenza del Consiglio di Stato, n. 2270 dell’8 aprile 2019, con cui l’algoritmo è stato definito, per la prima volta, come «una sequenza ordinata di operazioni di calcolo che, in via informatica, sia in grado di valutare e graduare una moltitudine di domande».

Successivamente, il T.A.R. Lombardia[34] ha ulteriormente precisato che può definirsi algoritmo una «sequenza finita di istruzioni, ben definite e non ambigue, tali da poter essere eseguite meccanicamente e idonee a produrre un determinato risultato»; esso consiste, quindi, in una «serie finita e ordinata di operazioni elementari e chiare di calcolo, che consentono di risolvere, in maniera determinata, un problema»[35].

Dello stesso tenore è la riflessione della dottrina amministrativistica, che ha qualificato l’algoritmo come «un processo, una sequenza di operazioni che permettono di risolvere un problema in un numero finito di passi, nel rispetto di due requisiti: ad ogni passaggio della sequenza deve essere già predefinito il successivo, e il risultato cui la sequenza tende deve essere concreto, reale, utile»[36].

Possono dirsi, dunque, concordi tanto la giurisprudenza quanto la dottrina amministrativa nel ritenere che l’algoritmo costituisca un procedimento logico-matematico che, sulla base di istruzioni predefinite, elabora dati in ingresso al fine di produrre un risultato, assumendo, nel contesto amministrativo, la funzione di strumento tecnico di supporto alla decisione.

Tanto premesso, una breve digressione appare opportuna in ordine alle modalità di funzionamento dell’intelligenza artificiale e alla tipologia di algoritmo che ne costituisce la base operativa[37].

Nella prassi amministrativa, infatti, si ha contezza del ricorso ad almeno due distinte tipologie di algoritmi: deterministici, o «condizionali», e non deterministici[38].

Sono detti deterministici quegli algoritmi «le cui decisioni si basano sull’avveramento, o meno, di determinate condizioni», inserite, normalmente, nel programma da uno o più frontisti. In altri termini, si tratta di sistemi che, al verificarsi di una specifica condizione (if…), eseguono un determinato comando (then…), secondo una logica predefinita e rigidamente strutturata[39].

Al contrario, si definisce non deterministico quell’algoritmo che «contiene almeno un’istruzione che ammette più passi successivi che hanno la possibilità di essere scelti: l’algoritmo potrà produrre così risultati diversi a partire da uno stesso insieme di dati compiendo percorsi differenti»[40].

In altri termini, si tratta di sistemi la cui esecuzione non segue un percorso univoco: a partire dagli stessi dati in ingresso, l’algoritmo può generare risultati differenti, poiché il processo decisionale dipende da scelte interne al sistema o dall’apprendimento dai dati stessi.

La distinzione tra algoritmi deterministici e non deterministici costituisce il presupposto tecnico per comprendere le due grandi categorie di sistemi di A.I.: da un lato, le model-based A.I., fondate su regole e schemi logici predefiniti; dall’altro, le machine-learning A.I., basate su meccanismi di apprendimento automatico e adattivo.

Più nello specifico, le model-based A.I. si caratterizzano per un approccio di tipo scientifico, in quanto, sulla base dei dati immessi nel sistema da uno o più programmatori, definiscono e realizzano un modello formale del fenomeno oggetto di analisi, tale da poter essere descritto, simulato e valutato in modo razionale dal sistema stesso[41].

Al contrario, nel caso delle machine learning A.I., l’intelligenza artificiale non si limita a seguire regole predeterminate, ma viene addestrata tramite i dati immessi nel sistema da uno o più programmatori, dai quali apprende schemi, correlazioni e modelli comportamentali che le consentono di produrre output anche in contesti nuovi o non completamente previsti[42].

La differenza tra le due tipologie – oltre che scientificamente rilevante – assume una portata giuridica sostanziale, poiché, come si vedrà infra, la pubblica amministrazione è chiamata a scegliere una specifica forma di intelligenza artificiale in funzione della natura del procedimento da istruire, se vincolato ovvero discrezionale.

4. Model-based A.I. e attività vincolata della pubblica amministrazione

Un primo snodo riguarda la compatibilità dell’intelligenza artificiale con l’attività vincolata della pubblica amministrazione.

Come è noto, l’attività della pubblica amministrazione è retta, tra l’altro, dal principio di legalità; sicché spetta alla legge definire il contenuto del potere amministrativo, nonché i tempi e le modalità del suo esercizio.

Invero, l’attività vincolata della pubblica amministrazione si configura quando la legge disciplina in modo dettagliato le procedure di attuazione del potere amministrativo, così da non lasciare alla stessa alcun margine di discrezionalità.

In altri termini, si parla di attività vincolata quando, per gli atti che ne derivano, la discrezionalità è del tutto assente, sicché alla pubblica amministrazione compete «esclusivamente l’acclaramento di presupposti oggettivi, da cui la legge fa discendere gli effetti che si manifestano con l’atto»[43].

Nell’ipotesi di attività vincolata, dunque, la pubblica amministrazione non può che comportarsi secondo quanto prescritto dalla legge. Eventuali deviazioni da tale vincolo costituiscono vizi procedimentali, il cui rimedio previsto dall’ordinamento è rappresentato dalla nullità o annullabilità dell’atto amministrativo[44].

È il caso, ad esempio, dei procedimenti di rilascio di licenze o autorizzazioni in cui la legge stabilisce criteri oggettivi, al verificarsi dei quali il conferimento è dovuto; o ancora, delle procedure di liquidazione di benefici economici o contributi pubblici, nei quali la legge individua requisiti e condizioni tali per cui l’erogazione diventa obbligatoria.

È evidente che, in fattispecie di questo tipo, «la struttura del provvedimento amministrativo richiama quella di un algoritmo»[45], secondo cui, ad una data situazione (if…), corrisponde necessariamente un determinato risultato (then…), secondo una logica predeterminata e meccanica, priva di margini di discrezionalità[46].

Applicando queste considerazioni all’ambito dell’intelligenza artificiale, risulta evidente che, nell’ipotesi di esercizio dell’attività amministrativa cosiddetta vincolata, la pubblica amministrazione non potrà che ricorrere a sistemi di model-based A.I., la cui logica deterministica si presta perfettamente a procedure predeterminate e prive di margini discrezionali.

In altri termini, poiché si tratta di «una sequenza logica del tutto causale (if/then) nell’ambito della quale a certi valori o dati ‘in entrata’ corrisponderanno sempre e soltanto – matematicamente – determinati valori ‘in uscita»[47], la struttura logica di una model-based A.I. ben si presta a supportare l’attività vincolata della pubblica amministrazione, che, per sua natura, si caratterizza per l’assenza di margini valutativi e per la necessaria applicazione automatica della norma al caso concreto.

Ed invero, l’ammissibilità dell’intelligenza artificiale applicata all’attività vincolata della pubblica amministrazione è pienamente riconosciuta sia dalla dottrina[48] che dalla giurisprudenza, a tal punto da potersi definire «il cavallo di Troia» per l’introduzione dell’A.I. nella sistematica amministrativa[49].

L’utilizzo dell’A.I. nei procedimenti vincolati, tuttavia, richiede che l’amministrazione mantenga un presidio rigoroso anche sulle fasi preliminari dell’istruttoria, poiché perfino l’automazione più avanzata resta dipendente dalla qualità degli elementi fattuali su cui opera.

In tal senso, presupposto imprescindibile per il corretto funzionamento del sistema è che l’operatore pubblico immetta i dati in maniera accurata, completa e neutrale.

In altri termini, ai fini della formulazione algoritmica dell’atto amministrativo c.d. vincolato, è necessario operare una «normalizzazione» del testo giuridico[50], ossia tradurre le disposizioni normative in ipotesi logiche (if…) fondate su «concetti giuridici precisi o più correttamente attraverso enunciati giuridici determinati»[51].

Fondamentale è, in tal senso, che, a sistema, siano immessi dati affidabili, pertinenti e rappresentativi, non influenzati dalle convinzioni personali, etiche o politiche dell’operatore pubblico, poiché tali elementi potrebbero condizionare in modo improprio l’elaborazione algoritmica e, conseguentemente, il risultato finale della decisione[52].

In caso contrario – ossia immettendo a sistema concetti giuridici indeterminati, o, in termini scientifici, «dirty data»[53] – si lascerebbero alla macchina algoritmica margini di opinabilità incompatibili con la natura vincolata del potere esercitato, con il rischio di deviare da quella sola e unica conclusione (then…) che l’ordinamento consente in presenza dei presupposti di legge.

Occorre, inoltre, tenere in considerazione gli orientamenti tracciati dalla giurisprudenza in materia di intelligenza artificiale, che rappresentano un passaggio imprescindibile per comprendere i limiti e le condizioni entro cui l’A.I. può essere impiegata nei procedimenti amministrativi di natura vincolata.

Sul punto, è opportuno richiamare quanto stabilito dal Consiglio di Stato[54], secondo cui l’utilizzo della tecnologia algoritmica nel procedimento amministrativo «vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning)».

Invero, secondo il Collegio, l’utilizzo dell’A.I. nell’adozione di un provvedimento amministrativo, finanche vincolato, non esime l’amministrazione dal compiere un’attività preventiva di indirizzo, controllo e verifica sul funzionamento dell’algoritmo, al fine di assicurare che l’automazione resti conforme ai principi e agli obiettivi dell’azione amministrativa.

In altri termini, quand’anche il provvedimento amministrativo si configuri quale vincolato, l’utilizzo dell’intelligenza artificiale non solleva l’amministrazione dall’obbligo di garantire la correttezza, la coerenza e la legittimità dell’atto, esercitando un controllo ex ante sull’algoritmo e sui criteri che ne guidano le decisioni.

Tale affermazione può considerarsi un’estrinsecazione del principio di «riserva di umanità», in quanto il giudice amministrativo, a garanzia del destinatario dell’atto amministrativo, impone all’operatore pubblico, oltre che una preventiva “approvazione” dell’algoritmo, un «rafforzamento del controllo procedimentale», sia in fase di scelta, sia in fase di utilizzo del software, con particolare riferimento all’immissione, controllo e validazione dei dati[55].

L’algoritmo, in tal senso, è idoneo a supportare l’esercizio dell’attività amministrativa, senza sostituirsi al funzionario responsabile del procedimento; che resta, a tutti gli effetti, centro d’imputazione dell’atto, sia sotto il profilo operativo, sia sotto quello della responsabilità[56].

In definitiva, può dirsi che, laddove l’amministrazione intenda avvalersi di uno strumento algoritmico nell’esercizio dell’attività amministrativa, il contributo umano si estende dalla fase pre-istruttoria fino a quella decisoria del procedimento, imponendo al funzionario di curare ogni passaggio – dalla scelta del software, all’attendibilità e alla completezza dei dati forniti alla macchina, «sino alla verifica della conformità e della legittimità dei risultati ottenuti, potendo, ove necessario, discostarsene motivatamente»[57].

In definitiva, emerge con chiarezza come l’attività vincolata della pubblica amministrazione rappresenti l’ambito più idoneo all’applicazione di sistemi di intelligenza artificiale, poiché, laddove il processo decisionale si fonda sull’applicazione meccanica di regole e sull’accertamento di presupposti oggettivi, l’automazione risulta pienamente coerente con la logica del procedimento e con i principi di legalità, imparzialità e buon andamento.

Diversamente, nei casi in cui l’esercizio del potere amministrativo implichi valutazioni discrezionali o apprezzamenti di opportunità, l’utilizzo dell’intelligenza artificiale pone questioni di ben altra complessità, che richiedono un diverso approccio metodologico e l’impiego di strumenti più evoluti, come si dirà infra.

5. Machine learning A.I. e attività discrezionale della pubblica amministrazione

Se, con riferimento all’attività vincolata, il quadro appare ormai delineato, maggiore complessità emerge invece nell’ambito dell’attività discrezionale, dove l’impiego dell’intelligenza artificiale richiede specifici limiti e cautele.

Dovrà premettersi, innanzitutto, cosa si intenda per attività discrezionale; quindi, quali siano gli elementi che la distinguono dall’attività vincolata.

Si è già anticipato che l’attività amministrativa trova la propria definizione nella legge, la quale stabilisce modalità e limiti del suo esercizio (vd. supra, par. 4).

In altri termini, è la legge a determinare l’ambito, i criteri e le regole cui l’amministrazione deve attenersi nello svolgimento delle proprie funzioni; sì che essa, nel perseguimento dell’interesse pubblico, operi sempre nel pieno rispetto, sia formale che sostanziale, del dettato normativo.

In taluni casi, rispetto al quid e al quomodo dell’attività amministrativa, la legge non detta modalità rigide di esercizio, ma lascia alla P.A. margini di valutazione e di scelta; si parla, in tali ipotesi, di attività discrezionale, caratterizzata dalla possibilità di ponderare interessi pubblici e privati, graduare priorità e adottare soluzioni adeguate alle specificità del caso concreto.

Per una nota definizione dottrinale, la discrezionalità amministrativa è lo «spazio di scelta che residua allorché la normativa di azione non predetermini in modo completo tutti i comportamenti dell’amministrazione»[58].

Invero, mentre, nell’ipotesi di attività vincolata, trova applicazione la c.d. “norma di relazione”, che si articola secondo lo schema norma–fatto–effetto, nell’ipotesi di attività discrezionale opera la c.d. “norma di azione”, la quale si sviluppa secondo il diverso schema norma–potere–effetto.

Potere che, nell’ipotesi di discrezionalità amministrativa, non è integralmente disciplinato dalla legge; ma, secondo l’impostazione classica del diritto amministrativo, implica una «ponderazione comparativa tra i diversi interessi secondari coinvolti»[59], in funzione dell’interesse pubblico primario, al fine di comprimere il meno possibile la sfera giuridica del privato.

Nella sistematica amministrativa, si distingue la discrezionalità c.d. pura dalla discrezionalità c.d. tecnica.

Più nello specifico, rientrano, nella prima categoria, quegli atti «contraddistinti da una facoltà di scelta concessa alla amministrazione di realizzare l’interesse pubblico, […] optando tra differenti modalità di intervento»; nella seconda, quegli atti la cui discrezionalità si esercita «in un ambito circoscritto e rispondente a valutazioni scientifiche e tecniche»[60].

In altri termini, nell’ipotesi di attività discrezionale cosiddetta pura, l’amministrazione dispone di un ampio margine di valutazione, potendo scegliere tra diverse opzioni per perseguire l’interesse pubblico senza vincoli predeterminati.

Viceversa, nella discrezionalità cosiddetta tecnica, la possibilità di scelta è più circoscritta, in quanto vincolata da criteri scientifici, tecnici o oggettivi che orientano e limitano l’esercizio del potere discrezionale.

A prescindere dalla tipologia di discrezionalità che connota l’atto, occorre precisare che, pur riconoscendo alla pubblica amministrazione un margine di libertà nella individuazione della soluzione più opportuna per il raggiungimento del fine da perseguire, restano fermi sia l’obbligo di perseguimento dell’interesse pubblico quale fine primario dell’azione amministrativa, sia il necessario rispetto del principio di legalità, con tutti i corollari che ne discendono[61].

In altri termini, deve evitarsi che la discrezionalità si trasformi in libero arbitrio.

Invero, nel diritto amministrativo, l’attività della P.A., quand’anche discrezionale, resta subordinata a quell’«ipoteca»[62] che è l’interesse pubblico. Ciò significa che la ponderazione degli interessi in gioco si inserisce in una vera e propria «rete di prescrizioni», rappresentate dai principi generali dell’azione amministrativa, che pur non essendo norme giuridiche rigide, vincolano concretamente la scelta dell’amministrazione, «limitandone lo spazio di libertà»[63].

Può dirsi, dunque, che, nell’ipotesi di attività discrezionale della pubblica amministrazione, la valutazione della legittimità non ha più natura puramente tecnica, come accade nell’ambito dell’attività vincolata. Al contrario, nell’attività discrezionale, la legittimità si intreccia con il c.d. merito amministrativo, intendendosi per tale «quello spazio di manovra riconosciuto dalla norma di azione ad un soggetto amministratore al fine di poter liberamente scegliere tra quel ventaglio di opzioni concretamente attuabili di cui disponga il soggetto medesimo nell’esercizio di quel potere ad egli riconosciuto in forza della normativa stessa»[64].

Ciò ha riflessi diretti sul sindacato del giudice amministrativo.

Invero, quando l’attività della pubblica amministrazione è discrezionale, il giudice non può sostituirsi all’amministrazione nella valutazione di merito, ossia nella scelta tra più soluzioni tutte legittime[65].

In altre parole, il controllo giudiziario si limita a verificare che la discrezionalità sia stata esercitata entro i confini della legalità, senza arbitrarietà, sviamento di potere, eccesso di potere o violazione dei principi generali dell’azione amministrativa (ragionevolezza, proporzionalità, imparzialità)[66].

In tal senso, il sindacato giurisdizionale è di legittimità e non di merito, pur tutelando l’interesse pubblico in maniera indiretta attraverso la verifica dei limiti dell’esercizio del potere discrezionale.

Senza voler approfondire ulteriormente la nozione di discrezionalità – che qui funge da sfondo concettuale – ci si chiede quale tipo di algoritmo possa conciliarsi con l’attività discrezionale della pubblica amministrazione.

Si ricorderà che, a proposito dell’attività vincolata della pubblica amministrazione, si è ritenuto applicabile l’uso dei cosiddetti algoritmi c.d. deterministici, i quali, definendo uno schema logico per cui, al verificarsi di una specifica condizione (if…) eseguono un determinato comando (then…), forniscono una sola conclusione possibile per ciascuna situazione predeterminata (vd. supra, par. 4).

Invero, tale struttura ben si conforma alla natura vincolata dell’atto, dove l’azione dell’amministrazione deve corrispondere esattamente a quanto previsto dalla legge, senza margini di scelta discrezionale.

Il quadro normativo si differenzia significativamente nell’ipotesi di attività discrezionale. In questo caso, infatti, non esiste una sola soluzione possibile: la pubblica amministrazione, nello spazio di manovra lasciato dalla legge, è «libera di effettuare la scelta definitiva fra più opzioni ugualmente legittime»[67].

In tali circostanze, risulta evidente che l’algoritmo più appropriato non può più essere quello deterministico; bensì non deterministico, in grado di generare l’output – ossia la decisione amministrativa – sulla base dell’analisi autonoma di decisioni precedenti, individuando schemi ricorrenti e suggerendo opzioni coerenti con prassi consolidate.

In altri termini, nell’ipotesi di attività discrezionale della pubblica amministrazione, l’operatore pubblico non si limiterà ad inserire a sistema quella situazione (if…) che, in forza di una legge che disciplina tout court la fattispecie, può condurre a una sola e univoca conclusione (then…); ma potrà avvalersi di algoritmi in grado di analizzare dati, individuare scenari possibili e suggerire alternative, lasciando alla propria valutazione finale la scelta dell’opzione più conforme all’interesse pubblico e ai principi generali dell’azione amministrativa[68].

Più nello specifico, nell’ipotesi di discrezionalità amministrativa, il compito della pubblica amministrazione non si limita a individuare la regola algoritmica più corretta da utilizzare; ma riguarda anche la modalità di funzionamento dell’algoritmo, ossia il modo in cui, tra più opzioni possibili, esso perviene a una decisione. Si tratta – in altre parole – di comprendere «il modo di “pensare”» dell’algoritmo, oltreché la sua «capacità di “scegliere”» rispetto al caso concreto[69].

Nel caso di specie, infatti, la decisione algoritmica non è univoca – come avviene nell’ipotesi di algoritmi deterministici – ma risente di variabili e parametri interni ed esterni al sistema, che influenzano la ponderazione delle opzioni e la scelta finale proposta all’agente umano.

Inoltre, come osserva la dottrina, quanto più ampio è il margine di discrezionalità riconosciuto alla pubblica amministrazione, tanto maggiore risulta la difficoltà di rendere oggettiva e calcolabile la decisione della macchina; sì che, alla maggiore complessità della decisione discrezionale, corrisponde la «minore “spiegabilità” tecnica del funzionamento dell’algoritmo e dell’iter logico-giuridico seguito dal sistema», in un rapporto di proporzionalità inversa[70].

Si determina, così, un quadro complesso, nel quale né la dottrina né la giurisprudenza offrono visioni univoche, mostrando approcci talvolta divergenti rispetto all’impiego dell’intelligenza artificiale nell’ambito della discrezionalità amministrativa.

Invero, secondo una parte della dottrina[71], l’utilizzo dell’intelligenza artificiale nei procedimenti discrezionali risulta sostanzialmente non realizzabile, in quanto il sistema è gravato da una opacità strutturale – o, in termini più scientifici, «black box» – che rende incomprensibile l’iter logico seguito dall’algoritmo per giungere alla decisione.

Costituisce, inoltre, un limite l’assenza di qualsiasi momento di interlocuzione tra l’autorità amministrativa e il privato, che, non consentendo di garantire gli istituti di partecipazione procedimentale previsti dalla legge, rischia di ingenerare tout court l’illegittimità dell’atto finale[72].

Non meno significativa è, infine, la posizione di quella dottrina che evidenzia come l’intelligenza artificiale non possa tener conto, in modo appropriato, delle peculiarità e delle circostanze fattuali del caso concreto, rispetto alle quali la decisione discrezionale dell’amministrazione deve necessariamente modulare la propria valutazione.

Non mancano, tuttavia, autorevoli orientamenti dottrinali, di segno opposto.

Invero, secondo una parte della dottrina, all’opacità strutturale dell’algoritmo può farsi fronte mediante una motivazione per relationem, che consenta di ricostruire «[il] codice sorgente dell’algoritmo, nonché [il] dataset utilizzato per il training e, non ultimo, [il] livello di affidabilità del modello matematico-numerico in tal sede generato»[73].

Alcuni Autori individuano una soluzione all’assenza di partecipazione nel procedimento connotato da discrezionalità amministrativa nel modello del «notice and comment», proprio di talune discipline settoriali, che assicura la previa consultazione degli interessati sulle proposte di provvedimento generate dall’algoritmo[74].

Da ultimo, alcuni sistemi algoritmici sono in grado di rendere esplicite le ragioni alla base delle scelte effettuate, contribuendo così a rendere intellegibile l’iter logico che le ha determinate.

Si tratta, in particolare, di un orientamento dottrinale che non si limita a ritenere ammissibile l’utilizzo dell’A.I. nell’ambito dell’attività discrezionale della pubblica amministrazione, ma ne considera l’esclusione «anacronistica», se non addirittura «velleitaria»[75], in quanto presupporrebbe un apparente isolamento del diritto dalle trasformazioni tecnologiche e sociali che investono l’organizzazione e il funzionamento della pubblica amministrazione[76].

Tanto più significativa è la considerazione del suo risvolto sociale positivo, ossia la capacità di «permettere alle amministrazioni, con le risorse disponibili, di rispondere efficacemente ai bisogni dei cittadini, curare l’interesse pubblico, il tutto in un contesto di continuo mutamento e rapido progresso scientifico che stressano in misura crescente le istituzioni pubbliche»[77].

Al contrario della dottrina, che ha mantenuto nel tempo un andamento ondivago, la giurisprudenza ha mostrato negli ultimi anni una progressiva apertura all’utilizzo dell’intelligenza artificiale, anche nell’ambito dell’attività discrezionale.

Invero, alla sentenza n. 2270 del 2019, con la quale il Consiglio di Stato ha ritenuto ammissibile l’applicazione dell’intelligenza artificiale esclusivamente nei procedimenti vincolati[78], hanno fatto seguito diverse pronunce dello stesso Collegio, che hanno aperto alla possibilità di utilizzo anche nei procedimenti discrezionali, purché vengano rispettate determinate garanzie procedimentali e di trasparenza[79].

Invero, prendendo come base la sentenza n. 8472 del 2019, dalla quale le pronunce successive hanno tratto i principi fondamentali sull’applicazione dell’intelligenza artificiale nei procedimenti amministrativi di natura discrezionale – il Consiglio di Stato ha stabilito che il ricorso all’algoritmo «va correttamente inquadrato in termini di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi sulla scorta delle legislazione attributiva del potere e delle finalità dalla stessa attribuite all’organo pubblico, titolare del potere».

In tal senso, il Collegio ha ribadito la centralità del procedimento amministrativo quale strumento per il perseguimento dell’interesse pubblico. Modus operandi che non viene sostituito dall’algoritmo; che, nella sua anche sola funzione di supporto alla fase istruttoria, è comunque soggetto alle verifiche e controlli previsti dall’ordinamento.

Tra le condizioni verificabili rientra, innanzitutto, la (a) “conoscibilità” dell’algoritmo, intesa come la piena trasparenza e intellegibilità di una regola espressa in un linguaggio differente da quello giuridico.

“Conoscibilità” che, secondo il giudice amministrativo, investe più aspetti: «[…] dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato».

Quindi, la (b) logicità e la correttezza degli esiti. In altri termini, il funzionario non si limita a prendere atto dei risultati forniti dall’algoritmo, ma li verifica e li sindacalizza, operando in una dimensione che garantisce «l’imputabilità della scelta al titolare del potere autoritativo […], sia nell’interesse della stessa pubblica amministrazione che dei soggetti coinvolti e interessati dall’azione amministrativa affidata all’algoritmo».

Si tratta, in definitiva, del tema della responsabilità per danno derivante da un provvedimento algoritmico illegittimo. Che, sinteticamente, può concludersi con «l’imputabilità al funzionario pubblico di una responsabilità amministrativo-contabile per il danno erariale – diretto o indiretto – conseguente ad un non corretto utilizzo dell’IA, dovendo verificare a monte l’esattezza dei dati da elaborare e mantenere il costante controllo del procedimento ‘algoritmico’»[80].

Da ultimo, il giudice amministrativo ha richiamato il (c) principio comunitario di non esclusività della decisione algoritmica, secondo cui, nel caso in cui una decisione automatizzata produca effetti giuridici significativi su una persona, quest’ultima ha diritto a che tale decisione non si basi esclusivamente sul processo automatizzato.

Deve ritenersi, in altri termini, indispensabile che vi sia un contributo umano capace di controllare, validare o eventualmente correggere la decisione automatica, secondo il modello informatico noto come HITL (human in the loop), in cui la macchina interagisce con l’essere umano per produrre il risultato[81].

Soddisfatte le premesse, secondo il Consiglio di Stato nulla osta all’utilizzo dell’intelligenza artificiale anche nell’ambito dell’attività amministrativa discrezionale: «Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo [dell’A.I.] all’attività amministrativa […] discrezionale, […] espressione di attività autoritativa svolta nel perseguimento del pubblico interesse». E ancora: «Se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità».

In definitiva, il dibattito dottrinale e giurisprudenziale evidenzia come la vera questione non sia più se l’intelligenza artificiale possa intervenire nei processi discrezionali, bensì come essa possa farlo senza alterarne la logica. In tal senso, la funzione algoritmica appare ammissibile solo quale strumento di razionalizzazione e trasparenza dell’azione amministrativa, e non già come surrogato del momento valutativo proprio del potere discrezionale.

6. Il procedimento algoritmico nel prisma della trasparenza

Tra le questioni maggiormente sollecitate dall’impiego dell’intelligenza artificiale nei procedimenti amministrativi si distingue, per rilevanza sistematica, il tema della trasparenza.

L’automazione di segmenti più o meno estesi dell’azione pubblica, infatti, rischia di introdurre nuove zone d’ombra nelle dinamiche decisionali, imponendo di verificare in che misura gli strumenti algoritmici possano conformarsi ai canoni di conoscibilità e intellegibilità propri del diritto amministrativo.

Come, infatti, statuito dal Consiglio di Stato[82], la regola algoritmica «possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica, e come tale, come si è detto, deve soggiacere ai principi generali dell’attività amministrativa», tra i quali quelli di pubblicità e trasparenza.

In altri termini, l’utilizzo dell’intelligenza artificiale nell’attività amministrativa deve ricondursi nell’alveo dei principi generali che ne regolano la legittimità, assicurando che anche le decisioni automatizzate rispettino trasparenza, motivazione e correttezza procedimentale[83].

Può dirsi, invero, che, con l’utilizzo dell’A.I., muti «la forma del rapporto tra cittadino ed amministrazione (e tra amministrazioni)»[84], ma non la sostanza, ossia il soddisfacimento dell’interesse pubblico, che, come tale, non può essere subordinato alla logica esclusivamente tecnica dell’algoritmo, ma deve rimanere ancorato ai principi che regolano l’attività amministrativa, tra i quali, in particolar modo, quelli di legalità, imparzialità e, per l’appunto, buon andamento della pubblica amministrazione.

Il passaggio è cruciale; tanto che, più volte, la giurisprudenza ha tentato di ricondurre il procedimento amministrativo, nella sua interezza, entro il principio di trasparenza, sottolineando come anche l’impiego di sistemi algoritmici debba conformarsi pienamente alle garanzie proprie dell’azione amministrativa.

Invero, può dirsi che l’esigenza di trasparenza nel procedimento algoritmico non riguarda soltanto la fase decisoria, ma debba estendersi anche a quella pre-istruttoria, comprendendo la conoscibilità dei criteri, dei dati e delle logiche che presiedono al funzionamento dell’algoritmo[85].

Rendere “conoscibile” la funzione algoritmica, infatti, significa rendere intellegibile l’intero processo decisionale dell’algoritmo, permettendo di comprendere come i dati vengano elaborati e come si giunga alle determinazioni finali; in altri termini, tale principio mira a contrastare il fenomeno della cosiddetta «black box», che, come è noto, concerne «la difficoltà, o addirittura l’impossibilità, di comprendere il processo decisionale di un sistema di IA, a causa della complessità e opacità degli algoritmi utilizzati»[86].

Dovrà ricordarsi, invero, che la trasparenza costituisce uno dei principi cardine del diritto amministrativo: un vero e proprio «diritto», sotto diversi profili, in quanto – come efficacemente evidenziato dalla dottrina[87] – consente al cittadino di valutare tanto l’efficienza dell’organizzazione amministrativa, quanto i risultati della sua azione, ossia gli atti prodotti.

Deve ritenersi, in altri termini, che la trasparenza svolga la funzione di «portare alla luce ciò che è nascosto»[88], rendendolo leggibile e, per l’appunto, conoscibile, ai fini dell’effettivo controllo democratico sull’azione amministrativa.

A tale principio non può sottrarsi l’intelligenza algoritmica, poiché l’adozione di un provvedimento amministrativo per il suo tramite comporta, di fatto, la delega – anche solo parziale – del potere decisionale ad una macchina.

Invero, il meccanismo che ne consegue «non solo conforma e orienta l’esercizio del potere, ma addirittura “fa sorgere” un [nuovo] centro di potere decisionale»; affidato – «spesso silenziosamente e quasi surrettiziamente» – a sistemisti e progettisti di software, talvolta estranei all’amministrazione stessa, che finiscono così per assumere un ruolo rilevante nell’organizzazione amministrativa[89].

Una situazione siffatta, oltre a far emergere «pieghe di opacità»[90] nell’organizzazione dei pubblici poteri e nell’azione amministrativa, rischia di incidere negativamente sull’effettività dei diritti e delle garanzie fondamentali del privato, tra cui, a titolo esemplificativo, le garanzie procedimentali previste dalla legge n. 241 del 1990.

È il caso, ad esempio, del diritto di difesa, che risulta svuotato di effettività ogniqualvolta venga meno la trasparenza dell’azione amministrativa: invero, senza la possibilità di conoscere le regole e i criteri che hanno condotto alla decisione, il cittadino non è posto nelle condizioni di comprendere, né tantomeno di contestare, l’operato dell’amministrazione[91].

In altri termini, affinché le decisioni automatizzate siano adottate nel rispetto, tra l’altro, del principio di trasparenza, l’amministrazione deve non solo indicare il procedimento informatico sotteso al provvedimento, ma anche rendere comprensibile all’utente – pur privo di specifiche competenze tecniche – il funzionamento dell’algoritmo utilizzato, assicurando così la c.d. “comprensibilità” della decisione automatizzata .

È in quest’ottica che riemerge, in tutta la sua forza, l’obbligo di motivazione del provvedimento amministrativo, ex art. 3, l. n. 241/1990, che, nel suo ruolo di «presupposto, fondamento, baricentro»[92] dell’attività amministrativa, assicura la trasparenza dell’azione pubblica, consentendo al destinatario di comprendere i criteri, le logiche e i dati alla base delle decisioni algoritmiche, nonché le ragioni che hanno portato a una determinata determinazione.

Né può ritenersi che l’utilizzo di sistemi algoritmici automatizzati, quand’anche tecnicamente complessi, possa costituire una giustificazione per limitare la trasparenza.

Come, infatti, recentemente statuito dal Consiglio di Stato[93], l’accesso a dati interamente gestiti in forma automatizzata non può essere negato per le difficoltà conoscitive derivanti dall’utilizzo di sistemi di intelligenza artificiale, il cui impiego – secondo il Collegio – deve comunque rispettare i principi di conoscibilità e comprensibilità, garantire che la decisione non sia esclusivamente algoritmica e assicurare l’assenza di discriminazioni.

Inoltre, rendere conoscibile la regola algoritmica ne consente non solo la piena comprensione, ma anche il completo controllo da parte del giudice amministrativo.

In altri termini, la regola algoritmica non deve limitarsi a essere conoscibile in astratto, ma deve essere soggetta a pieno sindacato, consentendo un controllo completo sul suo funzionamento, con verifica di correttezza, coerenza e legittimità, così da garantire che il procedimento automatizzato rimanga conforme ai principi di legalità, imparzialità e buon andamento[94].

In questo contesto, il controllo del giudice amministrativo non si limita più al merito dell’atto, ma si estende all’intero procedimento algoritmico, includendo la verifica della correttezza delle regole tecniche, dell’attendibilità dei dati e della coerenza logica delle decisioni automatizzate, così da garantire che le decisioni rispettino pienamente i diritti e le garanzie dei destinatari, anche in ottica giurisdizionale[95].

In definitiva, l’impiego dell’intelligenza artificiale nei procedimenti amministrativi non può prescindere dai principi fondamentali dell’azione pubblica: trasparenza, motivazione e correttezza procedimentale restano vincoli imprescindibili, a tutela sia del cittadino sia della legittimità dell’amministrazione.

La piena conoscibilità delle regole, dei dati e delle logiche algoritmiche, unitamente all’obbligo di motivazione del provvedimento, costituisce lo strumento attraverso cui conciliare l’efficienza tecnologica con il rispetto delle garanzie procedimentali, evitando che la delega parziale a sistemi automatizzati si traduca in opacità decisionale o riduzione dei diritti fondamentali.

7. Conclusioni

Occorre, dunque, portare a compimento l’analisi, soffermandosi sugli ultimi snodi concettuali di rilievo – e traendone, invero, dei punti di riflessione.

Non ci si soffermerà oltre sull’applicazione dell’intelligenza artificiale all’attività vincolata della P.A., poiché, salvo le precisazioni anzidette (v. supra, par. 4), tale ambito non solleva particolari criticità: l’algoritmo opera quale mero strumento di supporto all’attività applicativa della norma, senza incidere sull’autonomia decisionale del funzionario.

Diversamente, il quadro muta sensibilmente con riguardo all’attività discrezionale, la quale, per la sua stessa natura, implica valutazioni comparative di interessi e margini di apprezzamento che pongono questioni ben più complesse in ordine all’utilizzo dell’intelligenza artificiale.

Invero, come evidenziato dalla dottrina[96], il tema dell’applicazione dell’intelligenza artificiale all’attività discrezionale della pubblica amministrazione solleva una pluralità di interrogativi, che attengono, in particolare, all’estensione e alle modalità del ruolo che tale tecnologia può assumere nel processo decisionale pubblico.

Più nello specifico, la riflessione riguarda sia l’individuazione e la ponderazione degli interessi coinvolti, sia l’adozione dei criteri tecnico-scientifici necessari per la rilevazione dei presupposti dell’azione, nonché la determinazione del contemperamento tra interessi diversi ai fini della definizione dell’interesse pubblico concreto

Alla luce di ciò, si giunge alle conclusioni che seguono.

Anzitutto, l’algoritmo potrebbe essere utilizzato non nel senso di assumere la decisione in senso stretto, ma di limitarsi a formulare una proposta di provvedimento, frutto dell’elaborazione dei dati e dei parametri normativi di riferimento. Tale proposta resterebbe, in ogni caso, soggetta alla valutazione del funzionario, al quale compete la verifica della coerenza logico-giuridica dell’esito prodotto e, se del caso, la possibilità di discostarsene qualora lo ritenga non conforme al quadro normativo o alle peculiarità del caso concreto[97].

In termini più tecnici, si potrebbe affermare che all’algoritmo competano le attività istruttorie e la materiale redazione del provvedimento, mentre la fase decisoria, con la relativa imputabilità giuridica, permane integralmente in capo al funzionario responsabile del procedimento.

Inoltre, attorno alla proposta di provvedimento si riafferma la possibilità di garantire le garanzie procedimentali proprie del diritto amministrativo, in quanto la fase di valutazione e di approvazione dell’esito algoritmico consente al funzionario – e, indirettamente, al destinatario del provvedimento – di esercitare un controllo effettivo sulla correttezza, la logicità e la legittimità della decisione proposta.

Tale impostazione risulta perfettamente coerente con quella parte della dottrina che ammette la possibilità di intervento correttivo da parte del funzionario, il quale, nel suo «ruolo di timoniere ed anche […] correttore»[98] del procedimento, ove l’esito dell’elaborazione algoritmica risulti manifestamente fuorviante o non conforme al quadro normativo, può – e deve – discostarsene, esercitando il proprio potere valutativo e ricondurre la decisione entro i canoni di legalità e ragionevolezza[99].

In questo senso, il potere di verifica e di controllo umano assume un ruolo essenziale anche in chiave di prevenzione delle c.d. allucinazioni algoritmiche, ossia di quei fenomeni di deviazione o errore generativo propri dei sistemi di intelligenza artificiale, che possono condurre a conclusioni logicamente incoerenti o giuridicamente infondate.

Da ultimo, deve ricordarsi l’importante ruolo che assume l’obbligo di motivazione del provvedimento amministrativo, il quale, anche nell’ipotesi di decisioni supportate da sistemi di intelligenza artificiale, continua a rappresentare il principale strumento di garanzia della trasparenza e della comprensibilità dell’azione amministrativa, assicurando la riconducibilità della decisione all’organo titolare del potere e la possibilità di un effettivo controllo, tanto da parte del destinatario quanto del giudice.

In tal senso, la motivazione costituisce un presidio imprescindibile di legalità dell’azione amministrativa.

Invero, il fatto che il provvedimento sia adottato sulla base di complesse operazioni di calcolo non attenua tale obbligo, ma al contrario ne rafforza la rilevanza: l’Amministrazione è chiamata a rendere la propria decisione finale non solo conoscibile, ma anche comprensibile, così da garantire che l’interessato possa effettivamente valutare la logica e le motivazioni alla base del provvedimento, anche quando l’istruttoria sia stata supportata da strumenti algoritmici[100].

Sicché, anche nell’ipotesi di provvedimenti adottati con il supporto di sistemi di intelligenza artificiale, una motivazione chiara, puntuale e logicamente coerente è idonea a garantire la piena trasparenza del processo decisionale, neutralizzando i timori connessi all’opacità dell’elaborazione algoritmica e preservando, in ultima istanza, la legittimità dell’atto e la responsabilità del suo autore[101].

Può dirsi, allora, che, nell’amministrazione algoritmica, la «via maestra» sia la trasparenza: una trasparenza che non si limita a rendere conoscibile il funzionamento dell’algoritmo, ma che garantisca al contempo la comprensibilità, la controllabilità e la responsabilizzazione dell’azione amministrativa, assicurando che l’innovazione tecnologica rafforzi – e non indebolisca – i principi fondamentali del diritto amministrativo.

  1. A titolo esemplificativo, si consideri ChatGPT, tra gli applicativi di intelligenza artificiale open access più noti, che, secondo il rapporto di OpenAI (How people are using ChatGPT, 2025), contava, fino a luglio 2025, oltre 700 milioni di utenti attivi settimanali e circa 18 miliardi di messaggi inviati ogni settimana, evidenziando la rapida diffusione e la semplice accessibilità della piattaforma. Il report è disponibile su www.openai.com.
  2. La letteratura in materia, già sconfinata, è in continua evoluzione. Per ragioni di opportunità, si rinvia ad alcuni dei contributi più recenti: L. Martucci, Il fragile equilibrio tra l’intelligenza artificiale e la trasparenza nelle decisioni amministrative, in Amminstrativ@mente, 1, 2025, pp. 444 ss.; G. Clemente di San Luca, M. Paladino, Decisione amministrativa e intelligenza artificiale, in Federalismi.it, 4, 2025, p. 106 ss.; M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, in Federalismi.it, 17, 2024, pp. 114 ss.; S. B. Grenci, Le applicazioni di Intelligenza artificiale a supporto dell’automazione del procedimento amministrativo, in Rivista Italiana di Informatica e Diritto, 1, 2024, pp. 218 ss.
  3. Si veda, sul punto, M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, ivi, p. 118, che, nel distinguere il processo di informatizzazione della P.A. da quello di elaborazione informatica del provvedimento, ritiene che, il primo, nell’ambito di una generale informatizzazione dei mezzi di interlocuzione e di esternazione della volontà da parte della P.A., incide «su aspetti che attengono esclusivamente sull’organizzazione interna delle singole amministrazioni»; il secondo, rappresentato dall’elaborazione algoritmica del provvedimento, costituisce «una digitalizzazione dell’azione amministrativa in sé considerata», in grado «di incidere [anche] sulla sfera dei singoli interessati dal provvedimento adottato».
  4. L’espressione è mutuata da M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, ivi, p. 114.
  5. In tal senso V. Neri, Diritto amministrativo e intelligenza artificiale: un amore possibile, in Urbanistica e Appalti, 5, 2021, p. 582: «Il potenziale impiego di moderne tecnologie di intelligenza artificiale nello svolgimento dell’attività di cura dell’interesse pubblico rivela peraltro nuove prospettive di automazione dei processi decisionali, la cui compatibilità con le garanzie, che tradizionalmente presidiano l’esercizio delle funzioni pubbliche, deve essere valutata alla stregua dei principi generali del diritto amministrativo».
  6. M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, cit., p. 117.
  7. Si veda, sul punto, M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, ivi, p. 120, che, con riferimento alla legalità c.d. algoritmica, afferma come «la questione [relativa all’apparente conflitto tra principio di legalità e intelligenza artificiale] comincia, sebbene ‘in sordina’, a emergere in tutta la sua radicalità».
  8. Così E. Carloni, Dalla legalità algoritmica alla legalità (dell’amministrazione) artificiale. Premesse ad uno studio, in Rivista italiana di informatica e diritto, 2, 2024, p. 456.
  9. Per una trattazione più specifica sul G.D.P.R., si rinvia, ex multiis, a C. Colapietro, I principi ispiratori del Regolamento UE 2016/679 sulla protezione dei dati personali e la loro incidenza sul contesto normativo nazionale, in Federalismi.it, 2, 2018, pp. 2 ss.
  10. Ex art. 4, par. 1, n. 1) G.D.P.R., per «interessato» si intende la persona fisica identificata o identificabile cui si riconduce il «dato personale».
  11. Ossia «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica» (art. 4, par. 1, n. 4), G.D.P.R.).
  12. Intendendosi per tale «la persona fisica o giuridica, l’autorità pubblica, il servizio o altro organismo che, singolarmente o insieme ad altri, determina le finalità e i mezzi del trattamento di dati personali; quando le finalità e i mezzi di tale trattamento sono determinati dal diritto dell’Unione o degli Stati membri, il titolare del trattamento o i criteri specifici applicabili alla sua designazione possono essere stabiliti dal diritto dell’Unione o degli Stati membri» (Art. 4, par. 1, n. 7), G.D.P.R.).
  13. Cfr. A. Mantelero, D. Poletti, Regolare la tecnologia: il Reg. UE 2016/679 e la protezione dei dati personali. Un dialogo fra Italia e Spagna, in Pisa University Press, 2018.
  14. In questo senso M. Ciullo, Profilazione e decisioni automatizzate: lo stato dell’arte, 2020, disponibile su www.iusinitinere.it.
  15. Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, rubricata “L’intelligenza artificiale per l’Europa”, COM (2018) 237final, del 25 aprile 2018.
  16. Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, COM (2020) 65final, del 19 febbraio 2020.
  17. Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Promuovere un approccio europeo all’intelligenza artificiale, COM (2021) 205final, del 21 aprile 2021.
  18. In questo senso M. Inglese, Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?, in Rivista “Quaderni AISDUE”, 2, 2024, pp. 3-4.
  19. M. Carta, Il Regolamento UE sull’Intelligenza Artificiale: alcune questioni aperte, in Eurojus, 3, 2024, p. 190.
  20. M. Carta, Il Regolamento UE sull’Intelligenza Artificiale: alcune questioni aperte, ivi, p. 192.
  21. Per un approfondimento, si rinvia ad E. Cirone, L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, in Rivista “Quaderni AISDUE”, 2, 2024, pp. 2 ss.
  22. Che può essere ricostruito nella trattazione di A. Alaimo, Il Regolamento sull’Intelligenza Artificiale: dalla proposta della Commissione al testo approvato dal Parlamento. Ha ancora senso il pensiero pessimistico?, in Federalismi.it, 25, 2023, pp. 133 ss.
  23. Intendendosi per tale «la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso» (art. 3, par. 1, num. 2) del Regolamento).
  24. Sul punto, si rinvia alla riflessione di F. M. Mancioppi, La regolamentazione dell’intelligenza artificiale come opzione per la salvaguardia dei valori fondamentali dell’UE, in Federalismi.it, 7, 2024, pp. 119-123, che, nel ravvisare un mancato raccordo tra i due regolamenti, ritiene che l’art. 22 del G.D.P.R., che, come si è avuto modo di approfondire, regola la protezione dei dati nei sistemi automatizzati, offre un sistema di garanzia non adeguato «laddove siano operatori transatlantici a realizzare il trattamento automatizzato»; inoltre, evidenzia come il suddetto articolo «introduca un meccanismo di contestazione non idoneo a ricomprendere tutti i settori che l’IA coinvolge». In altri termini, secondo l’Autrice, «coloro che sono lesi dalla decisione automatizzata rimangono privi di tutela (anche procedurale); il mero riferimento ad un altro regolamento rallenta la risoluzione dell’istanza e provoca difficoltà nell’interpretare la disposizione in base alle specifiche caratteristiche dell’IA».
  25. In questo senso F. M. Mancioppi, La regolamentazione dell’intelligenza artificiale come opzione per la salvaguardia dei valori fondamentali dell’UE, ivi, p. 127: «[Gli obblighi informativi e di trasparenza sono] di carattere relativo, poiché non è possibile garantire, in concreto, una trasparenza assoluta. Invero, [il regolamento] prevede requisiti minimi ma essenziali».
  26. In particolare, le violazioni più gravi – come l’impiego di pratiche di A.I. vietate, tra cui la manipolazione del comportamento umano o il c.d. social scoring – possono essere punite con sanzioni fino a 35 milioni di euro o, se superiore, fino al 7% del fatturato mondiale annuo. Sono, invece, previste sanzioni fino a 15 milioni di euro o al 3% del fatturato per la violazione degli obblighi relativi ai sistemi di A.I. ad alto rischio, e fino a 7,5 milioni di euro o all’1% del fatturato per la fornitura di informazioni inesatte fuorvianti alle autorità competenti.
  27. Da ultimo l’art. 3-bis, l. n. 241/1990 (Nuove norme in materia di procedimento amministrativo e di diritto di accesso ai documenti amministrativi), ad opera del d.l. n. 76/2020 (Misure urgenti per la semplificazione e l’innovazione digitale), conv. con modifiche nella l. n. 120/2020, che, al co. 1, così recita: «Per conseguire maggiore efficienza nella loro attività, le amministrazioni pubbliche agiscono mediante strumenti informatici e telematici, nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati».
  28. Sul mancato adeguamento della l. n. 241/1990 all’evoluzione algoritmica, si veda C. Polidori, Procedimento amministrativo e algoritmi, intervento al Convegno annuale dell’Associazione Veneta Avvocati Amministrativi sul tema “Intelligenza artificiale tra diritto, scienza ed etica”, Cortina D’Ampezzo, 2025, p. 14: «Dovendosi (almeno astrattamente) ritenere applicabili [anche al procedimento amministrativo algoritmico] le regole generali fissate dalla legge n. 241/1990, ivi comprese quelle relative al responsabile del procedimento e in materia di partecipazione al procedimento – si pone il diverso problema di stabilire come tali regole generali possano trovare applicazione nel procedimento algoritmico, in modo da preservare l’impostazione antropocentrica del procedimento, ossia il dialogo tra il responsabile del procedimento e i destinatari dell’azione amministrativa». La relazione è disponibile su www.giustizia-amministrativa.it.
  29. Per un’analisi più approfondita del quale si rinvia ad A. Lirosi, L’intelligenza artificiale nel diritto amministrativo – tra riserva di umanità e necessità di garantire una maggiore efficienza amministrativa, in Quaderni della Corte dei Conti, 2, 2024, pp. 127 ss.
  30. Per una disamina della disposizione, G. Salanitro, Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, in Rivista di Diritto Tributario, 2025. Disponibile su www.rivistadirittotributario.it.
  31. Deve infatti ricordarsi che l’I.A. Act, entrato in vigore il 2 agosto 2024, avrà piena applicazione solo a partire dal 2 agosto 2027. Risulta infatti avverata l’ipotesi di C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, in Rivista “Quaderni AISDUE”, 2, 2024, p. 6, che, con riferimento all’iter di approvazione della l. n. 132/2025 (Disposizioni e deleghe al Governo in materia di intelligenza artificiale), evidenziava come fosse verosimile che la conversione del relativo disegno di legge avvenisse «dopo l’entrata in vigore del regolamento […], ma prima della sua effettiva applicazione, che, ai sensi dell’art. 113, inizierà a decorrere ventiquattro mesi dopo la sua entrata in vigore». Scelta che, secondo l’Autrice, sul piano politico, è «poco comprensibile», in quanto rischiano di configurarsi profili di incompatibilità tra i due atti normativi.
  32. Più nello specifico, all’AgID sono attribuite funzioni di promozione e sviluppo dell’intelligenza artificiale, nonché compiti operativi di notifica, valutazione, accreditamento e monitoraggio degli organismi di valutazione della conformità. L’ACN, invece, assume un ruolo di vigilanza e controllo sui sistemi di A.I., con poteri ispettivi e sanzionatori, operando altresì quale responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza.
  33. Sul punto, J. Ponce Solé, Il regolamento dell’Unione Europea sull’intelligenza artificiale, la discrezionalità amministrativa e la riserva di umanità, in Riv. trim. dir. pubbl., 2024, p. 826, secondo cui qualificare l’intelligenza artificiale è compito complesso e incerto, a tal punto da ritenere «Non esist[a] una definizione scientifica ineccepibile» di cosa essa sia.
  34. T.A.R. Lombardia (sezione II), sentenza del 13 marzo 2021, n. 843. Disponibile su www.giustizia-amministrativa.it.
  35. T.A.R. Campania (sezione III), sentenza del 14 novembre 2022, n. 7003, disponibile su www.giustizia-amministrativa.it. È da osservarsi come il tema dell’intelligenza artificiale e dell’algoritmo emerga nella giurisprudenza amministrativa in epoca relativamente tarda. Invero, già nei primi anni Duemila, la giurisprudenza civile aveva iniziato a confrontarsi con tali questioni: significativa, in tal senso, è la pronuncia della Cass. civ., 28 dicembre 2000, n. 16204, che già spianava la strada all’informatizzazione degli atti della pubblica amministrazione «per semplificare e accelerare la emanazione degli atti amministrativi seriali, che non necessitino di specifica motivazione pertanto suscettibili di una completa elaborazione informatica […]».
  36. G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Editoriale Scientifica, Napoli, 2019, p. 5.
  37. Il tema, certamente complesso, può essere approfondito nella trattazione più semplificata di P. Traverso, Breve introduzione tecnica all’Intelligenza Artificiale, in Diritto pubblico comparato ed europeo online, 1, 2022, pp. 155 ss.
  38. Si rinvia, sul punto, a M. Palma, Gli algoritmi dell’amministrazione pubblica e l’amministrazione pubblica degli algoritmi), in Diritto pubblico comparato ed europeo online, 2, 2022, pp. 39 ss. Come tuttavia puntualizza B. Raganelli, Decisioni pubbliche e algoritmi: modelli alternativi di dialogo tra forme di intelligenza diverse nell’assunzione di decisioni amministrative, in Federalismi.it, 22, 2022, p. 245, «esistono tipologie e diversi gradi di complessità dello strumento algoritmico, ciascuno dei quali da un lato risente della mente umana che a monte lo ha programmato (con tutte le potenzialità e limiti) della quantità e qualità di dati che utilizza, nonché della capacità dell’algoritmo stesso di processare e rielaborare le informazioni con una capacità di apprendimento che simula la mente umana e la sua complessità, ponendo diverse questioni». L’algoritmo influenza, dunque, la complessità delle risposte.
  39. G. Carullo, Decisione amministrativa e intelligenza artificiale, in Dir. inf., 3, 2021, pp. 431 ss.
  40. G. Avanzini, Decisioni amministrative e algoritmi informatici, cit., p. 7.
  41. P. Traverso, Breve introduzione tecnica all’Intelligenza Artificiale, cit., p. 158-160.
  42. P. Traverso, Breve introduzione tecnica all’Intelligenza Artificiale, ivi, p. 160 ss.
  43. Così F. Petrocchi, Discrezionalità dell’atto e riparto di giurisdizione, in Gazzetta Amministrativa della Repubblica Italiana, 1, 2021, p. 2. Si veda anche F. Follieri, Decisione amministrativa e atto vincolato, in Federalismi.it, 7, 2017, pp. 4 ss.: «Gli effetti giuridici che si fanno dipendere dall’adozione dell’atto vincolato sono prodotti secondo lo schema ‘norma-fatto’, non secondo lo schema ‘norma-potere-effetto’, dal momento che gli atti vincolati sono atti senza potere. Nella successione di decisioni che caratterizza l’ordinamento giuridico e produce gli effetti giuridici, cioè, la norma che predetermina integralmente l’atto amministrativo “esaurisce il potere (unitariamente e comprensivamente inteso) e non lascia spazio a poteri ulteriori”».
  44. Istituti, la cui applicazione, nel procedimento algoritmico, può essere approfondita nella trattazione di F. Nassuato, Legalità algoritmica nell’azione amministrativa e regime dei vizi procedimentali, in CERIDAP, 1, 2022, pp. 150 ss.
  45. C. Polidori, Procedimento amministrativo e algoritmi, cit.
  46. Sul punto, L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, in Federalismi.it, 21, 2018, p. 7, per cui, in un procedimento amministrativo vincolato, «ogni volta che si ha la fattispecie concreta A viene presa la decisione B», ossia la decisione coincide con gli effetti della causa da cui scaturisce.
  47. M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, cit., p. 119.
  48. Cfr. A. L. Rum, Il provvedimento amministrativo adottato mediante algoritmo: il ruolo dell’intelligenza artificiale nel processo decisionale della P.A., disponibile su www.ildirittoamministrativo.it, secondo cui «Ancorché allo stato attuale debba ritenersi escluso che l’attività informatica possa sostituire completamente quella umana, specie ove si tratti di attività amministrativa discrezionale, tuttavia, si ritiene che la decisione possa essere affidata alla sola tecnologia per quegli atti c.d. a bassa discrezionalità, come gli atti richiedenti accertamenti tecnici, rispetto ai quali, cioè, sia prevedibile un limitato ventaglio di soluzioni a partire da specifici e predefiniti presupposti». Si veda anche D. Durante, La discrezionalità amministrativa ed i vizi del procedimento amministrativo, nell’epoca dell’intelligenza artificiale, intervento alla Rassegna di Diritto pubblico dell’economia sul tema “Intelligenza artificiale e appalti pubblici, tra capacità predittiva e discrezionalità amministrativa”, Varese, 2024, disponibile su www.giustizia-amministrativa.it, secondo cui, nel campo dell’attività vincolata della pubblica amministrazione, si può dare «piena operatività» all’intelligenza artificiale.
  49. L’espressione, certamente enfatica, è tratta da L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, in Federalismi.it, cit., pp. 5-6.
  50. L. Viola, L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte, cit.
  51. A. Masucci, L’atto amministrativo informatico. Primi lineamenti di una ricostruzione, Napoli, Jovene, 1993, pp. 22-23.
  52. In questo senso M. Macchia, Pubblica amministrazione e tecniche algoritmiche, in Diritto pubblico comparato ed europeo online, 1, 2022, p. 317.
  53. M. Macchia, Pubblica amministrazione e tecniche algoritmiche, cit., p. 317.
  54. Il riferimento è a Cons. Stato (sezione VI), 8 aprile 2019, n. 2270.
  55. Così V. Neri, Diritto amministrativo e intelligenza artificiale: un amore possibile, cit., p. 9.
  56. Si veda, sul punto, V. D.U. Galetta, J.G. Corvalan, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 3, 2019, pp. 1 ss, secondo cui è da evitarsi che si arrivi «a sostituire con un algoritmo la figura del funzionario responsabile del procedimento: piuttosto, è viceversa certamente possibile immaginare che il funzionario responsabile si serva utilmente dell’Intelligenza Artificiale».
  57. Si tratta della conclusione tratta da G. Clemente di San Luca, M. Paladino, Decisione amministrativa e intelligenza artificiale, cit., p. 126. Si veda anche L. Martucci, Il fragile equilibrio tra l’intelligenza artificiale e la trasparenza nelle decisioni amministrative, cit., p. 451: «Le decisioni automatizzate […] devono ricomprendere la comprensibilità, l’accessibilità e la trasparenza delle informazioni. Tuttavia, si tratta di caratteri che riproducono il flusso cognitivo umano, spesso quasi impossibili da replicare. Pertanto, non si può pensare di affidare interamente la delicata procedura amministrativa ad un sistema intelligente, il quale presenta ancora dei bias […] in quanto [è] fortemente limitat[o] e sicuramente imperfett[o] […]. Per questo motivo è necessario che ogni output emesso venga subordinato ad un controllo continuo dell’operatore umano».
  58. E. Casetta, Manuale di diritto amministrativo, Giuffrè Editore, Milano, 2019, p. 356.
  59. E. Casetta, Manuale di diritto amministrativo, op.cit., p. 357.
  60. F. Petrocchi, Discrezionalità dell’atto e riparto di giurisdizione, cit., p. 2.
  61. Così, sul punto, M. Difino, Discrezionalità amministrativa-autonomia privata, autorità-consenso, potere-rapporto: diadi a confronto. E, quindi, la questione del se conviene essere volpe, riccio o magari un pacifico thaumoctopus mimicus¸ in Federalismi.it, 26, 2021, p. 48: «[…] sembrerebbe allora che, nel caso dell’attività amministrativa discrezionale, non vi sia alcuno spazio di manovra che possa dirsi realmente “libero”, poiché la scelta del soggetto preposto al conseguimento dell’interesse pubblico, anche quando non è guidata dalla legge, è comunque orientata, attraverso i principi generali, al raggiungimento dell’obiettivo già prefissato ex lege».
  62. L’espressione è mutuata da M. Difino, Discrezionalità amministrativa-autonomia privata, autorità-consenso, potere-rapporto: diadi a confronto. E, quindi, la questione del se conviene essere volpe, riccio o magari un pacifico thaumoctopus mimicus, cit., p. 50.
  63. M. DIFINO, Discrezionalità amministrativa-autonomia privata, autorità-consenso, potere-rapporto: diadi a confronto, ibidem.
  64. La definizione è tratta da A. Maglione, Discrezionalità amministrativa e sindacabilità giurisdizionale, 2019. Disponibile su www.iusinitinere.it.
  65. Come, infatti, ricorda E. Casetta, Manuale di diritto amministrativo, op.cit., p. 358, il merito amministrativo è «normalmente (salvo eccezioni fissate dalla legge) sottratto al sindacato del giudice amministrativo e attribuito alla scelta esclusiva dell’amministrazione, la quale, tra la pluralità di scelte così individuate, preferirà quella ritenuta più opportuna. Da questo punto di vista si può dire che il merito costituisce la sfera di attività riservata all’amministrazione, sulla quale il giudice, anche in ragione della sua “irresponsabilità” politica, non può incidere».
  66. Così A. Maglione, Discrezionalità amministrativa e sindacabilità giurisdizionale, cit.: «[…] Unico sindacato ammissibile da parte del giudice circa la scelta della PA è quello relativo all’appartenenza dell’alternativa attuativa adottata a quel ventaglio di opzioni concretamente disponibili alla stessa al fine di esercitare il potere amministrativo. In altre parole, si tratta di un sindacato c.d. “esterno” rispetto all’agire amministrativo, il quale si baserà sul criterio di logicità-congruità cui è tenuta ad uniformarsi la PA al momento del bilanciamento degli interessi coinvolti dal proprio agire».
  67. Secondo la definizione di discrezionalità contenuta in Cons. St., ad. plen., 6 febbraio 1993, n. 3.
  68. Con riferimento, tuttavia, alla discrezionalità c.d. tecnica, la natura tecnica e specialistica della valutazione sottesa al provvedimento conferisce a quest’ultimo un carattere di scientificità, avvicinandolo, di fatto, alla tipologia vincolata. Sul punto, A. Di Martino, Tecniche e potere nell’amministrazione per algoritmi, Editoriale Scientifica, Napoli, 2023, p. 160, secondo cui, nell’ipotesi in commento, «la tecnica incide sensibilmente, pur senza implicare derive tecnocratiche, sulla scelta da compiere».
  69. Così M. Francaviglia, L’intelligenza artificiale nell’attività amministrativa: principi e garanzia costituzionali nel passaggio dalla regula agendi alla regola algoritmica, cit., p. 130.
  70. P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., p. 194.
  71. Su tutti, G. Avanzini, Decisioni amministrative e algoritmi informatici, cit., pp. 91-93; J. Ponce Solé, Il Regolamento dell’Unione Europea, cit.
  72. Ipotesi che non si realizza laddove, ad essere applicati, siano algoritmi deterministici, in quanto, come evidenzia G. Clemente di San Luca, M. Paladino, Decisione amministrativa e intelligenza artificiale, cit., p. 128, «la partecipazione sarebbe quantomeno recuperabile nella fase di determinazione dello strumento» algoritmico.
  73. G. Carullo, Decisione amministrativa e intelligenza artificiale, cit.
  74. Tra tutti, R. Cavallo Perin, Ragionando come se la digitalizzazione fosse data, in Diritto Amministrativo, 2, 2020, p. 320.
  75. Si tratta della considerazione di P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., p. 197.
  76. Si tratta di quella visione antimodernista che, secondo R. Cavallo Perin, Ragionando come se la digitalizzazione fosse data, cit., p. 313, non prende atto che il fenomeno tecnologico in esame ha una portata tale da «toccare indubbiamente questioni giuridiche di diritto pubblico di rilevanza istituzionale».
  77. G. Carullo, Decisione amministrativa e intelligenza artificiale, cit.
  78. Nel punto in cui il giudice amministrativo prevedeva che la regola algoritmica «non [potesse] lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili».
  79. In particolare, Cons. Stato (Sezione VI), sentenza del 5 dicembre 2019, n. 8472; da cui le sentenze c.d. «gemelle», Cons. Stato (sezione VI), 5 dicembre 2019, nn. 8473 e 8474. Quindi, Cons. Stato (sezione VI), 5 dicembre 2019, n. 881; Cons. Stato, (sezione VI), 4 febbraio 2021, n. 1206. Le pronunce sono reperibili su www.giustizia-amministrativa.it.
  80. In questo senso P. Evangelista, Intelligenza artificiale e responsabilità ammininistrativo-contabile, in Rivista della Corte dei Conti, 2, 2024, p. 142.
  81. Principio ribadito dalla recente sentenza del T.A.R. Abruzzo (sezione I), 23 giugno 2025, n. 240: «La scelta dell’introduzione dell’Intelligenza Artificiale e strumenti informatici di ultima generazione nel procedimento amministrativo […] può costituire di certo un consistente ausilio per l’Amministrazione potenziandone l’efficienza, ma non può sostituire del tutto l’intervento umano [dell’Amministrazione], a cui l’attività valutativa è imputabile sotto il profilo giuridico, che deve svolgere l’imprescindibile funzione di controllo sull’attività svolta per il tramite dei sistemi informatici». La pronuncia è disponibile su www.giustizia-amministrativa.it.
  82. Il riferimento è a Cons. Stato (sezione VI), 8 aprile 2019, n. 2270.
  83. Cfr. M. Macchia, Pubblica amministrazione e tecniche algoritmiche, cit., p. 318, secondo cui «[…] l’implementazione delle tecniche di AI nell’azione amministrativa non può sacrificare le garanzie del giusto procedimento amministrativo […]».
  84. P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, in Federalismi.it, 7, 2021, p. 189.
  85. Come, invero, statuito da Cons. Stato (sezione VI), 8 aprile 2019, n. 2270, la decisione robotizzata (ovvero l’algoritmo) «deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico».
  86. La definizione è tratta da A. Lirosi, L’intelligenza artificiale nel diritto amministrativo – tra riserva di umanità e necessità di garantire una maggiore efficienza amministrativa, cit., p. 128.
  87. F. Merloni (a cura di), La trasparenza amministrativa, Giuffrè Editore, Milano, 2008, pp. 2 ss.
  88. L’espressione è mutuata da F. Merloni (a cura di), La trasparenza amministrativa, ivi, p. 12.
  89. Si tratta della considerazione, assai condivisibile, di P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., p. 199.
  90. P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, ibidem.
  91. L’assunto è tratto da L. Martucci, Il fragile equilibrio tra l’intelligenza artificiale e la trasparenza nelle decisioni amministrative, cit., pp. 403 ss.
  92. Cons. Stato (sezione VI), 20 dicembre 2021, n. 8449. La sentenza è disponibile su www.giustizia-amministrativa.it.
  93. Il riferimento è a Cons. Stato (sezione VI), 6 giugno 2025, n. 4929. La sentenza è disponibile su www.giustizia-amministrativa.it.
  94. Così, sul punto, Cons. Stato (sezione VI), 8 aprile 2019, n. 2270: «La suddetta esigenza [di conoscibilità dell’algoritmo] risponde infatti all’irrinunciabile necessità di poter sindacare come il potere sia stato concretamente esercitato, ponendosi in ultima analisi come declinazione diretta del diritto di difesa del cittadino, al quale non può essere precluso di conoscere le modalità (anche se automatizzate) con le quali è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica».
  95. Si veda sul punto la riflessione di A. Di Martino, Intelligenza artificiale, garanzie dei privati e decisioni amministrative: l’apporto umano è ancora necessario? Riflessioni a margine di Cons. Stato 8 aprile 2019, n. 2270, in Rivista Giuridica Europea, 1, 2019, p. 69, secondo cui, rispetto alle decisioni algoritmiche, «non sarebbe necessario far riemergere la distinzione tra merito e legittimità, quanto piuttosto ribadire il ruolo dell’amministrazione quale garante delle regole procedimentali ex ante: Ciò che pare rilevante sottolineare è che rispetto al tema delle decisioni algoritmiche non sembra esservi la necessità per l’interprete […] di far riemergere la distinzione delle due categorie – merito e legittimità – ma ribadire la centralità del dovere in capo all’amministrazione di esercitare la funzione di garante delle regole procedimentali […], evitando così una prima valutazione in sede processuale, fase nella quale il provvedimento potenzialmente avrebbe già potuto dispiegare i propri effetti nei confronti dell’interessato».
  96. Su tutti, G. Clemente di San Luca, M. Paladino, Decisione amministrativa e intelligenza artificiale, ivi, p. 134.
  97. Si tratta della soluzione, pienamente condivisibile, proposta da G. Clemente di San Luca, M. Paladino, Decisione amministrativa e intelligenza artificiale, ibidem.
  98. Così T.A.R. Lazio (sezione III), sentenza del 15 aprile 2021, n. 4409, secondo cui, nel procedimento algoritmo, resta, in capo al funzionario, l’onere di svolgere «supplementi di istruttoria e il disimpegno di interventi correttivi in riparazione di possibili distorsioni o aberrazioni, dell’esito provvedimentale conclusivo». La sentenza è disponibile su www.giustizia-amministrativa.it..
  99. Il riferimento è a R. Cavallo Perin, Ragionando come se la digitalizzazione fosse data, cit., pag. 316, secondo cui «Nel caso di risultati aberranti nessuno dubita che si debba procedere alla correzione dell’algoritmo, sia incrementando i casi, sia correggendo i pesi assegnati alle singole variabili, sia – non ultimo – prendendo atto della scarsa intellegibilità delle decisioni a suo tempo assunte dall’intelligenza umana».
  100. Si veda, sul punto, T.A.R. Campania (sezione III), sentenza dell’11 ottobre 2022, n. 7003, secondo cui «il fatto che il provvedimento venga emanato sulla scorta di una complessa operazione di calcolo produce l’opposto effetto di rafforzare, per certi versi, l’obbligo motivazionale in capo all’Amministrazione, la quale dovrà rendere la propria decisione finale non solo conoscibile, ma anche comprensibile».
  101. Cfr. P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., p. 194, che – ricorda – «[…] è proprio in riferimento all’esercizio di attività discrezionale che la motivazione assolve alla sua funzione di garanzia non solo delle posizioni giuridiche soggettive del cittadino interessato, ma anche dell’effettiva imparzialità e del buon andamento della p.A».

 

Pietro Losciale

Funzionario amministrativo nell’Ufficio Contratti pubblici del Comune di Firenze. Già funzionario amministrativo presso il Comune di Montemurlo (PO)