L’intelligenza artificiale nel settore pubblico: sulla perenne ricerca di un equilibro tra efficienza e garanzie

Tags: , ,

2/2023

L’intelligenza artificiale nel settore pubblico: sulla perenne ricerca di un equilibro tra efficienza e garanzie

Tags: , ,

Le amministrazioni pubbliche sono immerse in una grande rivoluzione tecnologica che sta suscitando molti interrogativi interessanti e intensi dibattiti tra i professionisti del diritto; quelli legati all’uso dell’intelligenza artificiale sono senz’altro tra i più appassionanti e controversi. Tuttavia, le questioni legate all’uso dell’IA da parte delle amministrazioni vanno analizzate nel contesto della trasformazione generale che vive il settore pubblico, la cosiddetta “governance pubblica”, con tutto ciò che questo comporta: in sintesi, si sta delineando un nuovo rapporto tra cittadini e autorità pubbliche, che segna un preciso panorama in cui l’odierna Amministrazione deve agire. Guardando all’essenza stessa del diritto amministrativo come imperniata su un eterno dualismo, il presente scritto studia l’uso dell’intelligenza artificiale nel settore pubblico, alla ricerca di un giusto punto di equilibrio tra efficienza e garanzie.


Artificial intelligence in the public sector: the search for a balance between efficiency and safeguards
Public administration is immersed in a major technological disruption that raises interesting questions and legal debates. The use of artificial intelligence is undoubtedly one of them. However, this phenomenon must be analysed in the context of the general transformation that the public sector is undergoing, the so-called “public governance”, with all that this implies, in short, a new relationship between citizens and public authorities, which marks the scenario in which the current Administration must act. Bearing in mind that the very essence of administrative law hinges on a constant duality, this paper analyses the use of artificial intelligence in the public sector, seeking the eternal balance between efficiency and guarantees.

Sommario. 1. Approccio.- 2. Contesto.- 3. L’eterno gioco di equilibri.- 3.1. IA logica o IA connessionista?- 3.2. Attività materiale e attività formale.- 3.3. Vantaggi e rischi.- 3.4. Poteri vincolati e poteri discrezionali.- 3.5. Migliori servizi o maggiore controllo?- 3.6. Efficienza contro garanzie: in sintesi.- 4. Dalla teoria alla pratica: possibili utilizzi nel settore pubblico.- 5. Conclusioni.

1. Approccio[1]

È un dato di fatto che l’intelligenza artificiale (d’ora in poi: “IA”) è già presente nelle nostre vite, ma anche che, paradossalmente, si proietta verso un futuro, per molte ragioni incerto, che oscilla tra il sogno di un mondo migliore, quasi perfetto, e l’incubo di una schiavitù dell’uomo, soggiogato da parte della macchina o manipolato mentalmente[2].

Senza essere molto fiduciosa su questa idea, ma speranzosa nel settore pubblico, sono propensa a includermi nel gruppo di coloro che sperano, in un mondo futuro, di usufruire dei migliori servizi pubblici, oltre che di un settore amministrativo più funzionale, che si prenda cura dei cittadini e si impegni proattivamente nell’innovazione, ma senza dimenticarsi delle garanzie dei destinatari di questa azione pubblica, vale a dire, di tutti noi.

Per questa ragione e seguendo Umberto Eco, prendo posizione accanto agli integrati, piuttosto che agli apocalittici[3], ed è proprio da questa posizione che ho affrontato lo studio di questa materia, cercando le opportunità, ma senza lasciare da parte i rischi[4], verso cui noi giuristi dobbiamo, inevitabilmente, orientarci.

Partendo da questa prospettiva, appare opportuno inquadrare il tema cominciando da alcune premesse. Innanzitutto, l’IA è solo un altro strumento a disposizione delle amministrazioni pubbliche[5], cioè un mezzo al servizio dell’interesse generale e non un fine e, perciò, non sarà né buona né cattiva in sé. In secondo luogo, lo sviluppo e l’implementazione dell’IA non possono essere dissociati dal contesto generale della trasformazione digitale dell’azione pubblica, dove la strada da percorrere è ancora molto lunga, e non è un caso che il titolo stesso di questo contributo faccia riferimento a questa evoluzione. Infine, si tratta di un elemento che fa parte di una nuova forma di gestione della cosa pubblica, la nuova governance pubblica[6], che reca con sé il bisogno di collegare la sua integrazione nel settore pubblico con una cultura della trasformazione, che deve caratterizzare anche l’organizzazione amministrativa.

In questo contesto, ho intrapreso l’odierno studio con la consapevolezza di dover tentare di conseguire questo triplice obiettivo.

Anzitutto, occorre comprendere il quadro generale in cui questa trasformazione si sta avverando, il cui scopo ultimo, per il momento, sembra essere l’applicazione dei sistemi di IA, poiché la sua comprensione supporterà la ricerca di soluzioni adeguate alle sfide che questa trasformazione impone. O forse sarebbe possibile ottenere una maggiore efficienza nella gestione pubblica senza che questa risponda alle necessità che scaturiscono dalla società, ovvero che sia avvolta da un’opacità contraria alla trasparenza e alla responsabilità[7] che contraddistinguono il rinnovato ruolo dell’Amministrazione e dei cittadini? Come ha sottolineato il Conseil d’État francese[8], è necessario che l’utilizzo dell’IA sia accettato anche dai destinatari dell’azione pubblica, cioè i cittadini[9].

In secondo luogo, serve cecare un difficile equilibrio tra garanzie ed efficienza. Il che evoca l’eterno dualismo a cui faceva riferimento il maestro francese Maurice Hauriou, e pone un compito arduo, visto il contesto normativo – per ora insufficiente e soprattutto dispersivo – in cui si devono cercare le risposte.

E, per concludere, occorre indagare le possibili applicazioni concrete, al fine di immaginare soluzioni pratiche indirizzate alla ricerca di mezzi che consentano una maggiore efficienza amministrativa

2. Contesto

In questo nuovo contesto, vanno sinteticamente messi in evidenza tre elementi: la cosiddetta cittadinanza amministrativa, la buona amministrazione e la cosiddetta nuova governance pubblica[10].

La nozione di “citoyenneté administrative”, nata dal punto di vista dottrinale in Francia più di vent’anni fa[11] e non assente in altri ordinamenti come, per esempio, quello italiano[12], riflette il passaggio da un’amministrazione democratica alla democrazia amministrativa e, in sintesi, dà conto della diversa considerazione di chi ha un rapporto con l’amministrazione o usufruisce di un qualche servizio pubblico, che passa dall’essere un semplice utente o amministrato, all’essere un cittadino[13]. Il che implica che quest’ultimo ha il diritto di partecipare all’azione amministrativa e di avere accesso all’Amministrazione[14], con l’insorgere, per l’amministrazione, di un dovere di rendere conto del proprio operato[15]. Il che implica che non vi possono essere opacità nell’uso dell’IA da parte dell’amministrazione.

In secondo luogo, la nozione di “buona amministrazione”[16], cioè quella che svolge nel miglior modo la sua funzione, perseguendo l’interesse generale, ma con il giusto rispetto degli interessi privati che si confrontano con l’agire amministrativo, operando una giusta ponderazione dei mezzi, delle circostanze, dei fatti, degli elementi presenti, della quale va dato atto in motivazione. Il concetto di buona amministrazione è chiaramente connesso all’efficienza e al miglioramento delle decisioni. In questo contesto anche l’IA può svolgere il suo compito, ad esempio, attraverso il trattamento dei dati posseduti dalle amministrazioni.

Se in questa rinnovata forma di cittadinanza è essenziale coinvolgere i cittadini nei processi decisionali e, in generale, nella vita dell’Amministrazione, questo comporta un nuovo modello di gestione pubblica. Ed è in questo momento che la nuova governance pubblica come modello organizzativo si collega alle idee di cittadinanza amministrativa e di buona amministrazione.

3. L’eterno gioco di equilibri

Il secondo passo di questo percorso discendente viene rappresentato dall’eterno bilanciamento, tra efficienza e garanzie. Non possiamo permetterci di dimenticare che sussiste un legame tra i nuovi strumenti disponibili (non solo l’IA, ma anche l’automazione[17], la digitalizzazione ecc.) con la buona amministrazione[18]. L’utilizzo delle risorse tecnologiche diventa importante al fine di garantire una maggiore efficienza, così come viene chiaramente riconosciuto nella legge italiana sul procedimento amministrativo[19]. Quello alla buona amministrazione costituisce un principio fondamentale dell’azione amministrativa che trova riconoscimento costituzionale nell’emblematico art. 103.1 della nostra Carta Magna[20].

Con tutto ciò, non dobbiamo lasciarci abbagliare dalla tecnologia, perché solo un uso corretto[21] e ponderato di questa ci permetterà una maggiore efficienza; la discriminazione algoritmica, l’opacità o la mancanza di motivazione non rappresentano forse flagranti violazioni della buona amministrazione?

Tra le molte classificazioni presenti con riguardo alla questione, vorrei citarne solo alcune molto brevemente.

3.1. IA logica o IA connessionista?

Non si vuole entrare, in questa sede, in un dibattito volto a stabilire cosa si debba intendere per IA, che è un concetto complesso e in continua evoluzione. Ai fini del presente contributo, va semplicemente osservato che, tenendo conto sia dell’ampia definizione offerta dal progetto di regolamento europeo sull’IA, sia dell’idea, già espressa anteriormente, che questo lavoro non si limita ad essa, visto che ci sono vari momenti (e strumenti) che caratterizzano questo percorso evolutivo che conduce al pieno utilizzo di strumenti di IA, sicché è evidente che questa panoplia di mezzi comprende sia quelli che da una prospettiva più ristretta sono considerati sistemi di IA, cioè l’apprendimento automatico (la cosiddetta IA connessionista, machine learning o anche deep learning), alimentando la IA con esempi in modo che possa dedurre le regole pertinenti per risolvere un problema. Rientrano nell’oggetto del presente studio anche i sistemi le cui regole operative sono esplicitamente parametrizzate dall’uomo (la cosiddetta IA simbolica), ma che hanno una certa libertà nel determinare la soluzione soddisfacente o ottimale di un problema complesso.

Senz’altro, è noto che il sistema di IA simbolico è programmato esplicitamente da esperti, mentre quello connessionista è, da questi, solo addestrato[22] e, sebbene tale sistema sia ancora più risalente, ha avuto una gran diffusione negli ultimi dieci anni.

Ai fini dell’analisi delle norme esistenti, va inoltre sottolineato che l’IA non è sinonimo di algoritmo, classicamente definito come un insieme di istruzioni e operazioni che consentono di risolvere una categoria di problemi. D’altra parte, il codice sorgente è la materializzazione del modello che costituisce il sistema, le istruzioni di montaggio, la guida completa al ragionamento, che può essere eseguita da un computer.

Inoltre, un’IA capace d’imitare completamente l’intelligenza umana, nella attualità, si può considerare ancora fantascienza.

Pertanto, nello svolgimento dell’azione pubblica è bene privilegiare strumenti di IA simbolica, ovvero mezzi di apprendimento automatico? Si tratta di una scelta complessa, alla quale non possiamo offrire una risposta “automatica”, senza un’analisi preventiva dei vantaggi e degli svantaggi. Per il momento, è sufficiente concentrarsi su di un aspetto fondamentale per il tema basilare di questo studio: efficacia e garanzie; proprio perché l’IA simbolica ha, in linea di massima, il grande merito di essere spiegabile, poiché si basa su regole definite dagli esseri umani, che è vitale per assicurare la responsabilità, trasparenza e motivazione delle decisioni, a differenza del deep learning, i cui schemi sono al di là della comprensione umana, e del machine learning, che si trova a metà strada tra i due.

3.2. Attività materiale e attività formale

Molti di questi sistemi di IA sono attualmente in uso, soprattutto nell’attività materiale di fornitura di servizi, ma anche nell’attività proceduralizzata, rispetto alla quale è richiesta una maggiore precisione, in particolare per quanto riguarda le decisioni amministrative individualizzate.

3.3. Vantaggi e rischi

I vantaggi evidenti dell’uso dei sistemi di IA e, in generale, dei nuovi strumenti offerti dalla tecnologia nel settore pubblico sono molteplici, per cui, nel tentativo di riassumerli, si possono ridurre a tre tipologie fondamentali: per cominciare, il miglioramento dei processi di assunzione di decisioni; poi, il progresso nell’erogazione dei servizi pubblici e nell’interazione tra amministrazioni e cittadini; e, per concludere, l’ottimizzazione della gestione interna.

Merita la pena ricordare alcune questioni interessanti, come il dibattito – sollevato in alcuni ordinamenti – sull’esistenza di un diritto all’IA collegato alla buona amministrazione e alla clausola di progresso, o, da un’altra parte, l’interessante idea del dovere dell’Amministrazione di aggiornamento per garantire la migliore qualità della vita ai cittadini, come sottolineato dalla dottrina italiana.

Ma per raggiungere una nuova e migliore amministrazione pubblica è necessario indirizzarsi verso un processo di transizione digitale che, come suggerisce il termine, prevede passi graduali e precisi, tra cui la dematerializzazione dei documenti, il rispetto del principio “once only”, una buona interoperabilità, ecc[23]. Senza dimenticarci della necessità di risorse umane e materiali adeguate, e il requisito essenziale di disporre di dati di qualità.

Per quanto riguarda i rischi che, in questo costante dualismo, si contrappongono ai benefici indicati, spiccano quelli di natura legale; il rischio di accettabilità da parte dei cittadini e dei dipendenti pubblici – che si ricollega a quanto detto a proposito del contesto generale –; e, infine, i rischi dal punto di vista tecnico, mettendo qui in risalto la cybersecurity.

Tra i primi, vanno citati la violazione del diritto alla protezione dei dati[24] – a questo proposito emerge l’impronta di accesso del sistema estone[25] –, i danni che possono dar vita alla responsabilità pecuniaria, la mancanza di un’adeguata trasparenza, la difficoltà di spiegare e motivare le decisioni[26], i dubbi sull’imputabilità[27], la possibilità di discriminazione o persino alcune questioni etiche. E tutto questo senza dimenticare altri aspetti cruciali, come l’impatto sull’organizzazione e sull’occupazione pubblica[28], la frammentazione sociale[29] o persino i danni all’ambiente naturale, ad esempio, attraverso il dispendio energetico[30].

3.4. Poteri vincolati e poteri discrezionali

In sintesi, trattandosi di un tema a cui la dottrina si è già dedicata in modo approfondito, è opportuno richiamare la distinzione tra poteri vincolati e discrezionali. La dottrina non è unanime, in quanto alcuni sostengono che non sia opportuno prendere decisioni discrezionali attraverso i sistemi di IA[31], mentre altri autori si fanno portatori di posizioni leggermente diverse, nel senso che, senza escludere radicalmente questo tipo di applicazione dell’IA, pensano possa trovare più proficua applicazione con riferimento all’esercizio di poteri vincolati, che si prestano maggiormente all’uso di questa tipologia di strumenti elettronici[32].

A mio avviso, sono molte le questioni da prendere in considerazione nello studio di questo aspetto, da ciò che va inteso con discrezionalità, alla sua distinzione con il margine di apprezzamento nella constatazione della concomitanza di concetti giuridici indeterminati, alla necessità di motivazione e/o spiegabilità delle decisioni (siano esse discrezionali o vincolate, poiché pur non essendo richiesta, in queste ultime, una motivazione formale in senso stretto, ciò non implica che non ce l’abbiano, in quanto in caso di impugnazione dovrà essere possibile verificare che le norme previste dalla norma siano state rispettate: ad esempio, si pensi all’applicazione di una tabella di valutazione, i cui criteri sono chiaramente stabiliti nel relativo bando), alla distinzione tra i casi in cui la decisione è presa interamente da un sistema di IA o da altri strumenti simili e quelle in cui questi servono da supporto, senza dimenticare che IA e azione automatizzata non sono la stessa cosa, il che è importante, dato che ci sono disposizioni normative che si basano sull’uno o sull’altro aspetto.

Così, ad esempio, come è noto, la legge tedesca[33] vieta l’emissione completamente automatizzata di atti in presenza di discrezionalità o margine di apprezzamento; mentre la normativa francese si basa sul termine veramente ampio di “trattamento algoritmico” (art. L311 del CRPA).

Anche la nostra scarsa e dispersiva normativa spagnola allude a decisioni automatizzate, che non sono necessariamente IA, ad esempio nell’art. 41 della Legge 40/2015[34] e nell’art. 13 del Reale Decreto 203/2021, del 30 marzo, che prevede la necessità di una disposizione normativa che autorizzi, in qualsiasi caso, che l’azione amministrativa si svolga in questo modo, convergendo in questo senso con l’art. 22.2, b) del RGPD[35][36]. Sono anche presenti alcune disposizioni in diverse norme settoriali[37]. È con l’articolo 23 della legge 15/2022, del 12 luglio, sulla parità di trattamento e la non discriminazione, che si farà riferimento all’IA e ai meccanismi decisionali automatizzati, sebbene in modo molto generico.

Infine, a mio avviso, sono rilevanti altri due aspetti della questione. Da una parte, che è necessario rendersi conto che anche nelle decisioni discrezionali non c’è nulla di indifferente per il diritto, poiché, dal mio punto di vista, la buona amministrazione obbliga a prendere la decisione migliore, rispettando sempre il dovere di diligenza il giusto iter procedimentale. D’altra parte, non bisogna dimenticare che le previsioni algoritmiche sono una maniera diversa di affrontare un problema o di prendere una decisione[38], giacché si arriva al risultato attraverso correlazioni, non relazioni di causalità («correlation is not causation, and prediction is not certainty»)[39], né tramite la percezione personale o l’intuizione.

Quanto visto finora esclude necessariamente l’uso dell’IA? A mio parere, dipenderà dal caso specifico, essendo più facile ricorrere a questi strumenti nei casi in cui è possibile parametrare, senza alcun dubbio, gli elementi da prendere in considerazione senza che ci sia alcuna discrezionalità, ad esempio, con una predeterminazione di criteri chiara e precisa.

In conclusione, il principio di precauzione, così come il principio di proporzionalità, dovrebbero essere utilizzati come punto di partenza per analizzare in ogni caso specifico se il sistema di IA è migliore del processo decisionale umano[40]. Allo stesso tempo, non dobbiamo trascurare quei sistemi che facilitano o supportano il processo decisionale[41], con tutte le garanzie necessarie[42], in particolare la trasparenza e la spiegabilità[43].

Anche è vero che non sembrerebbe corretto utilizzare tecniche di IA per adottare la decisione finale nei casi in cui sono necessarie capacità umane come l’empatia, che mancano ai computer. E tenendo anche conto del fatto che, anche quando gli elaboratori servono a sostenere la decisione, deve essere possibile sapere in che misura abbiano influenzato la decisione e come funzionino, così come previsto dal sistema francese (art. L311 CRPA)[44].

Va in questa direzione anche la giurisprudenza del Consiglio di Stato italiano[45], che ha definito le condizioni di ammissibilità delle decisioni algoritmiche[46], e anche la dottrina italiana[47].

3.5. Migliori servizi o maggiore controllo?

Va soltanto analizzata, molto brevemente, un’altra esigenza antitetica. Ai fini di una maggiore accettabilità da parte dei cittadini, è obbligatorio individuare un giusto equilibrio tra sistemi di IA dedicati a facilitare o migliorare il servizio ai cittadini e quelli volti allo svolgimento di funzioni di controllo, come ad esempio quelli indirizzati a perseguire le frodi, però senza dimenticare che anche questi ultimi sono volti a perseguire un interesse generale, come viene riconosciuto dal Conseil Constitutional francese nella decisione del 27 dicembre 2019, n. 2019-796, e addirittura espressamente in alcune norme[48], anche dell’ordinamento spagnolo, e senza dimenticare il principio di uguaglianza contributiva. A condizione che il suo utilizzo sia proporzionato e rispettoso dei diritti e delle garanzie, in particolare quelli di natura fondamentale, come la protezione dei dati, la privacy ecc.

3.6. Efficienza contro garanzie: in sintesi

Dopo questa breve esposizione di alcune delle contrastanti esigenze presenti in materia, è ora opportuno fare una breve sintesi rispetto a quella più rilevante, ovvero l’idea che sta alla base di questo lavoro, l’equilibrio tra efficacia e garanzie.

Per quanto riguarda il primo elemento, credo che sia rimasto chiaro che uno dei principali vantaggi dell’utilizzo dell’IA può essere quello di contribuire a una maggiore efficienza, a un migliore processo decisionale, e ciò la riconduce ad una buona amministrazione ed è addirittura la ragione d’essere del suo utilizzo. Ciò si collega facilmente all’inquisitorial principle del sistema danese, nel senso che occorre garantire che le decisioni rivolte ai cittadini siano basate su informazioni pertinenti, necessarie e corrette[49]. In breve, l’uso di IA può contribuire all’adempimento dell’obbligo di due care o due diligence a cui fa riferimento la Corte di giustizia dell’Unione europea[50].

Allo stesso modo, sono stati citati alcuni rischi associati all’uso di questo tipo di strumenti, come il digital divide o la discriminazione algoritmica, per ricordarne alcuni, che si “oppongono” a questa presunta maggiore efficienza e di fronte ai quali devono essere fornite garanzie.

L’assenza nell’ordinamento spagnolo di una disciplina esaustiva dell’impiego dell’IA nell’ambito dell’Amministrazione, non implica l’assenza di garanzie e diritti che devono essere inevitabilmente rispettati; al contrario, il ricorso alla IA è comunque disciplinato dal diritto amministrativo, dai principi etici e dal necessario rispetto dei diritti fondamentali, cioè l’Administrative Law by Design del sistema danese[51].

Per cominciare, quando si tratta di attività “formale”, è evidente che ogni diritto procedurale che deve essere rispettato e garantito in generale, va rispettato anche quando l’IA viene utilizzata in una procedura specifica. Questi diritti sono stati riconosciuti come fondamentali dall’Unione europea dall’articolo 41 della Carta dei diritti fondamentali.

Tra queste garanzie, un’attenzione particolare va riservata alla motivazione, che a sua volta si collega ad altri due elementi, quali la trasparenza e la spiegabilità, che in senso lato comprende l’interpretabilità[52] (a questo proposito, vale la pena sottolineare anche la controversa questione dell’eccessiva fiducia che taluni coltivano rispetto alle decisioni algoritmiche e del come discostarsi dalla proposta fatta dal sistema di IA), l’intelligibilità o interpretabilità in senso stretto[53], cioè non basta poter conoscere il sistema, il codice sorgente o l’algoritmo utilizzato, ma il sistema nel suo complesso deve anche essere comprensibile[54]. Tutto questo è, a sua volta, legato a un’altra questione cruciale, come la tutela dell’uguaglianza e la possibilità di creare differenze basate sulla difficoltà di comprendere come si è giunti a una decisione, in quanto ciò può persino avere ripercussioni sull’accesso all’effettiva tutela giurisdizionale, che è senza dubbio un’altra delle garanzie riconosciute dal nostro ordinamento. Senza dimenticare la tracciabilità e l’audit, a cui il Prof. I. Martín Delgado[55] fa riferimento nell’ambito della trasparenza.

Intanto, è necessario per i cittadini capire e accettare che la spiegabilità pura e perfetta non può essere una conditio sine qua non per l’impiego di sistemi pubblici di IA, così come non lo è il funzionamento del cervello umano.

In sintesi, e come in altri sistemi come quello francese, si dovrebbe applicare, per impostazione predefinita, il principio della trasparenza[56], limitata solo nei casi giustificati dal concorso di altri diritti o interessi giuridicamente tutelabili, ad esempio alcuni limiti della LTAIBG (legge spagnola sulla trasparenza, accesso all’informazione e buon governo), e dopo una preventiva e adeguata ponderazione, dove opportuno.

Non si deve, nemmeno, dimenticare l’importanza della trasparenza stessa nella progettazione, così come la partecipazione e/o la collaborazione ad essa, ad esempio attraverso l’intelligenza collettiva, visto che ciò si tradurrà in accettabilità.

Un’altra questione vitale nell’ambito delle garanzie è quella dei processi di auditing. Ciò è particolarmente legato alla necessità di garantire l’uguaglianza e il trattamento non discriminatorio, evidenziando la good administration impact assessment dei sistemi di IA imposti in Danimarca[57], la cui denominazione non potrebbe essere più significativa.

Tra le garanzie, merita di essere menzionata anche la responsabilità patrimoniale, magari non solo rispetto a possibili pregiudizi che non ci sia alcun obbligo legale di supportare, ad esempio, a causa dell’uso inadeguato dei sistemi di IA, ma al contrario per non averlo fatto, comportando una perdita di opportunità.

Per concludere, è necessario considerare anche la creazione di alcuni organismi in questo settore[58], come, ad esempio, l’Agenzia Statale per l’Amministrazione Digitale e l’Agenzia Spagnola per la Supervisione dell’IA[59], nonché l’Osservatorio sull’Impatto Sociale degli Algoritmi[60]. Di particolare interesse è la figura del Difensore civico digitale (art. 17 CAD) in Italia, o, per esempio, l’idea del Canada che, nel 2019 ha creato un comitato per valutare l’impatto degli algoritmi sulle decisioni amministrative.

4. Dalla teoria alla pratica: possibili utilizzi nel settore pubblico

In terzo luogo, in questo approccio top-down, vale la pena di analizzare le possibilità concrete di impiego di questi sistemi nel campo delle amministrazioni pubbliche.

Anzitutto, la semplificazione amministrativa a cui l’IA può contribuire è essenziale, soprattutto perché spesso ci troviamo di fronte a ritardi intollerabili. In altre parole, gli sforzi devono concentrarsi soprattutto sulla semplificazione, su una più rapida, efficiente ed efficace gestione della cosa pubblica.

Le applicazioni di questi sistemi che possono essere considerate favorevoli o vantaggiose per i destinatari dell’azione pubblica sono molteplici: dalla fornitura di informazioni tramite chatbot, all’aiuto agli utenti, ad esempio con nudge digitali che facilitino la localizzazione e la presentazione delle domande, allo snellimento delle procedure, e molto altro ancora.

Non si può dimenticare la proattività, ad esempio, nell’informare gli ipotetici destinatari interessati e persino, in certi ambiti, nel sollecitare l’Amministrazione stessa a trattare, ad esempio, gli aiuti, soprattutto quando sono rivolti a persone svantaggiate che possono essere doppiamente discriminate dalla burocrazia[61].

Ancora, evidentemente, da un punto di vista interno, nel facilitare la elaborazione. Così, ad esempio, nella verifica del rispetto dei requisiti per essere beneficiari di determinati aiuti, nella ripartizione degli importi tra i richiedenti, nel calcolo degli importi o, ancora, quando si tratta di procedure competitive, come ad esempio negli appalti pubblici[62], nella trascrizione in istruzioni informatiche di quanto stabilito nel bando specifico (approccio simbolico dell’IA), o per la graduatoria delle domande in base ai criteri valutativi[63], soprattutto quando questi sono chiari e precisi, non lasciando margini di discrezionalità.

Nel campo delle giustificazioni, ad esempio, con la tecnologia blockchain, identificando la documentazione da presentare, perché l’ambito della verifica è particolarmente adatto a questo tipo di strumento.

Questo si collega a un’altra questione cruciale e, per certi aspetti, molto dibattuta, come l’uso di questi strumenti nella lotta contro le frodi (ad esempio, in Spagna NIDEL, in Belgio OASIS, il noto caso olandese Syri, ecc.) e, soprattutto, con l’uso di algoritmi predittivi nella creazione di profili che, senza dubbio, devono essere guidati dal principio di precauzione, soprattutto con il background noto, e rafforzare eventualmente la progettazione, l’implementazione e la supervisione del sistema. Inoltre, il RGPD mette già in guardia dai pericoli di questo tipo di utilizzo dell’IA nel già citato art. 22.

Rispetto a questa disposizione, merita la pena sollevare una questione per la discussione: quando si tratta di profilazione (IA connessionista) ai fini della previsione di possibili frodi, si può ritenere che essa produca effetti giuridici o che incida in modo significativo sull’interessato in modo analogo, tanto più che è addirittura precedente all’avvio del relativo procedimento? Lo stesso vale quando una persona decide di avviare un’ispezione o quando questa scelta viene fatta in modo casuale.

È però possibile utilizzare questi sistemi di profilazione anche in positivo, ad esempio, per progettare meglio le politiche pubbliche, come nei bandi per i sussidi, come propone A. Bueno, per rilevare i bisogni, identificare i potenziali destinatari ecc. Va inoltre ricordato che sono sistemi di IA anche quelli che illustrano le possibili conseguenze delle decisioni pubbliche, vale a dire, i simulatori, che possono anch’essi contribuire in questa direzione a migliorare l’accuratezza e la progettazione appropriata delle misure adottate nel settore pubblico.

5. Conclusioni

In conclusione, vengono proposti alcuni principi di base da tenere in considerazione nella progettazione e nell’utilizzo di sistemi di IA o di strumenti simili nel settore pubblico. Questi includono almeno i seguenti elementi:

1) Primato dell’uomo: nel senso di garantire che i sistemi di IA funzionino a beneficio dell’essere umano (Dichiarazione europea sui diritti e i principi digitali per il decennio digitale, COM(2022) 27 final), che la scelta sia guidata dall’idea di fornire un beneficio all’interesse generale.

2) Miglioramento delle performances: in quanto il loro utilizzo deve implicare un progresso in relazione all’attività umana, poiché l’obiettivo è quello di aumentare la qualità, l’efficacia e l’efficienza. Pertanto, non avrebbe senso scegliere di implementare sistemi di IA costosi o impattanti senza un sufficiente miglioramento delle performances pubbliche.

3) Uguaglianza e non discriminazione: si tratta di un aspetto cruciale, che implica accessibilità, universalità, adozione di misure – come valutazioni d’impatto o audit – che evitino o attenuino pregiudizi, discriminazioni algoritmiche o qualsiasi altra violazione di questo diritto fondamentale, principio e valore del nostro Stato di Diritto. È persino necessario considerare come la complessità possa essere più dannosa per alcuni gruppi svantaggiati o per coloro che hanno meno mezzi per difendersi.

4) Trasparenza, sia in termini di motivazione che di rendicontazione: considerando che ciò implica anche la spiegabilità. Non ci possono essere “scatole nere” che rendano impossibile sapere com’è stata presa la decisione. Inoltre, la trasparenza deve essere estesa alla fase di progettazione, coinvolgendo anche gli stakeholder.

5) Promuovere l’autonomia: ridurre il più possibile la dipendenza da altri, sia perché l’amministrazione deve essere proattiva e all’altezza del compito, sia perché il ricorso a terzi comporta notevoli complicazioni legali (cause di astensione e ricusazione, imputabilità, segreti professionali, interessi economici ecc.) Questo, evidentemente, deve riflettersi nell’organizzazione pubblica e nell’uso di dipendenti statali.

6) Sostenibilità ambientale: sebbene alcuni sistemi di IA possano contribuire al miglioramento ambientale, una generalizzazione del loro uso può aggravare la crisi ambientale, ad esempio a causa dell’occupazione di suolo o del consumo di elettricità.

7) Proporzionalità: essenziale quando si decide tra le molteplici situazioni confliggenti, come abbiamo già visto.

8) Precauzione: avere sufficienti garanzie prima di implementare i sistemi di IA nella sfera pubblica, il che non impedisce di effettuare l’equazione di base trial-and-error, elementare nell’innovazione.

9) Accettabilità: che comporta, tra le altre, due sfide essenziali: la cultura e la consapevolezza. A tal fine, è necessario aumentare il livello di comprensione dei cittadini e degli impiegati pubblici, coinvolgerli nella progettazione e nell’implementazione, il che si collega alla partecipazione, alla trasparenza e alla responsabilità. Anche per trovare l’equilibrio tra gli usi per aiutare i cittadini e quelli per controllarli.

10) Affidabilità: le autorità pubbliche dovrebbero optare per un’IA affidabile, basata su una serie di principi fondamentali e accompagnata da misure legali, organizzative, tecniche, pedagogiche e di governance, e coinvolgere tutte le parti interessate.

In caso di rispetto di tutti questi principi, la logica conseguenza sarà un aumento dell’efficienza senza minare le garanzie, una transizione ordinata dalla burocrazia all’IA, che permetta di creare le condizioni affinché i cittadini riacquistino fiducia nel sistema, nelle istituzioni, nel nostro Stato di diritto sociale e democratico e, per concludere, nella qualità della vita del cittadino come nucleo essenziale del sistema.

  1. Questo lavoro fa parte del progetto “Digital citizenship: administrative implications” TED2021-129283B-I00, finanziato da MCIN/AEI/10.13039/501100011033 e dall’Unione Europea NextGeneration EU/PRTR, nonché dalla Cattedra di Buon Governo Rafael del Riego, e costituisce la rielaborazione della relazione tenuta al XVII Congresso dell’AEPDA, tenutosi a Siviglia il 26-28 gennaio 2023. Devo ringraziare il mio collega e amico Angelo G. Orofino per il suo prezioso aiuto nella stesura di questo testo.
  2. A questo proposito, risultano interessanti i cosiddetti nudge e hypernudge digitali, così come i modelli oscuri; cfr. in proposito J. Ponce Solé, Law, Digital Nudging and Manipulation: Dark Patterns, Artificial Intelligence and the Right to Good Administration, in ERDAL, vol. 3, Issue 1.
  3. U. Eco, Apocalittici e integrati, Bompiani, Milano, 1964.
  4. In merito ad IA e gestione dei rischi, cfr. A. Barone, Amministrazione del rischio e intelligenza artificiale, in ERDAL, vol. 1, Issue 1-2, 2020, pp. 63-67.
  5. Sull’IA come strumento v. G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Cedam, Padova, 2023, p. 87. Ha teorizzato che i programmi siano solo dei mezzi tecnici (e non degli atti, come da taluni autori sostenuto) A.G. Orofino, La patologia dell’atto amministrativo elettronico, in Foro amministrativo Tar, 2002, pp. 2256-2281.
  6. P. K. Agarwal, Public Administration Challenges in the World of AI and Bots, in Public Administration Review, 78(6), 2018, pp. 917-921
  7. A.G. Orofino, The Implementation of the Transparency Principle in the Development of Electronic Administration, in ERDAL, vol. 1, Issue 1-2, 2020, pp. 123-142.
  8. Intelligence artificielle et action publique: construire la confiance, servir la performance. Étude adoptée en assemblée générale plénière du 31/03/2022, Paris, 2022.
  9. In argomento, v. anche le interessanti riflessioni svolte da Cons. St, sez. VI, 13 dicembre 2019, n. 8472.
  10. E. Mª. Menéndez Sebastián, De la función consultiva clásica a la buena administración. Evolución en el estado social y democrático de Derecho, Marcial Pons, Madrid, 2021; E. Mª. Menéndez Sebastián y J. Ballina Díaz, Digital citizenship: fighting the digital divide, in ERDAL, vol, 2, Issue 1, 2021, pp. 149-155 e Sostenibilidad social y ciudadanía administrativa digital, Reus, Madrid, 2022; E. Mª Menéndez Sebastián e B. Mª. Mattos Castañeda, Better decision-making, algorithmic discrimination and gender biases: a new challenge for the administration of the 21st century, in ERDAL, vol. 3, Issue 1, 2022.
  11. G. Dumont, La citoyenneté administrative, Université Panthéon-Assas, Paris 2, 2002.
  12. C.E. Gallo, La pluralità delle cittadinanze e la cittadinanza amministrativa, in Diritto amministrativo, 2002, p. 481
  13. V. Donier, Les droits de l’usager et ceux du citoyen, in Revue Française de Droit Administratif, 1, 2018, p. 13.
  14. J. Chevallier, De l’Administration démocratique à la démocratie administrative, in Revue Française d’Administration Publique, 137-138, 2011, pp. 217-227.
  15. V. Ottaviano, Dovere di rendere pubblico conto, responsabilità dei dirigenti e determinazioni di indirizzi e programmi (1992), in Id., Scritti giuridici, vol. III, Giuffre, Milano, 1992, p. 385.
  16. E. Mª. Menéndez Sebastián, De la función consultiva clásica a la buena administración. Evolución en el estado social y democrático de Derecho, op. cit.
  17. E. Gamero Casado, Automated Decision-Making Systems in Spanish Administrative Law, in CERIDAP, 1, 2023.
  18. A. Antonov, Gestionar la complejidad: la contribución de la UE a la gobernanza de la inteligencia artificial, in Revista CIDOB d’Afers Internacionals, 131, 2022, p. 54.
  19. Si collega a una maggiore efficacia nell’art. 3-bis della legge n. 241/1990 (legge sul procedimento amministrativo, nella formulazione del 2020).
  20. Costituzione spagnola del 1978.
  21. C. Castelluccia e D. Le Métayer, Understanding algorithmic decisión-making: Opportunities and challenges, EPRS, Brussels, 2019, p. 3.
  22. F. Chollet, L’apprentissage profond avec Python, machine learning.fr, Francia, 2020.
  23. D.U. Galetta, Digitalizzazione e diritto ad una buona amministrazione (il procedimento amministrativo, fra diritto ue e tecnologie ICT), in R. Cavallo Perin, D.U. Galetta (a cura di), Il Diritto dell’Amministrazione Pubblica digitale, Giappichelli, Torino, 2020, pp. 85-117.
  24. J. L. Domínguez Álvarez, Inteligencia Artificial, derecho administrativo y protección de datos personales. Entre la dignidad de la persona y la eficacia administrativa, in Ius et Scientia, vol. 7, n. 1, 2021, pp. 304-326 e R. Martínez, Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo, in Revista Catalana de Dret Públic, 58, 2019, pp. 64-81.
  25. K. Nyman Metcalf, e-Governance and Good Administration: Examples from Estonia, in ERDAL, vol. 3, Issue 1, 2022.
  26. Con le parole di M. Manzoni et al., Al Watch Road to the Adoption of Artificial Intelligence by the Public Sector. A Handbookfor Policymakers, Public Administrationsand Relevant Stakeholders, Publications Office of the European Union72, Luxembourg, 2022, il già citato pregiudizio algoritmico, l’opacità e la complessità degli algoritmi.
  27. A.G. Orofino, R.G. Orofino, Automazione amministrativa: imputazione e responsabilità, in Giornale di diritto amministrativo, 2005, p. 1300; M. C. Cavallaro, Imputazione e responsabilità delle decisioni automatizzate, in ERDAL, vol. 1, Issue 1-2, 2020, pp. 69-74.
  28. D. Acemoglu and P. Restrepo, Artificial intelligence, automation, and work. In The economics of artificial intelligence: An agenda, University of Chicago Press, 2018, pp. 197-236.
  29. R. Medaglia et al., Artificial Intelligence in Government: Taking Stock and Moving Forward, in Social Science Computer Review, 2021.
  30. R. Schwartz et al., Green AI, ArXiv: 1907.10597, 2019.
  31. J. Ponce Solé, La lucha por el buen gobierno y el derecho a una buena administración mediante el estándar jurídico de diligencia debida, in Cuadernos de la Cátedra de Democracia y Derechos Humanos, Madrid, 2019.
  32. I. Martín Delgado, Automation, Artificial Intelligence and sound administration. A few insights in the light of the spanish legal system, in European Review of Digital Administration & Law (ERDAL), vol. 3, Issue 1, 2022; M. Fuertes López, Reflexiones ante la acelerada automatización de actuaciones administrativas, in Revista Jurídica de Asturias, 45, 2022, pp. 105-124.
  33. http://www.gesetze-im-internet.de/vwvfg/__35a.html.
  34. E. Mª. Menéndez Sebastián, Las garantías del interesado en el procedimiento administrativo electrónico. Luces y sombras de las nuevas Leyes 39 y 40/2015, Tirant lo Blanch, Valencia, 2017, pp. 77-90.
  35. Si prenda in considerazione che all’interno di questo diritto fondamentale si include il diritto di essere informato sul trattamento dei dati (STC 292/2020). Inoltre, v. M. Medina Guerrero, El derecho a conocer los algoritmos utilizados en la toma de decisiones. Aproximación desde la perspectiva del derecho fundamental a la protección de datos, in Teoría y Realidad Constitucional, 49, 2022, p. 143; A. Palma Ortigosa, Decisiones automatizadas en el RGPD. El uso de algoritmos en el contexto de la protección de datos, in Revista General de Derecho Administrativo, 50, 2019.
  36. Seguendo il modello indicato dall’art. 47 della legge. n. 17/1978 (Delative à l’informatique, aux fichiers et aux libertés)
  37. Ad esempio, il Real Decreto Legge n. 2/2021 (Rafforzamento e consolidamento delle misure sociali a difesa dell’occupazione, convalidato con accordo del 18 febbraio 2021).
  38. Huergo Lora, Administraciones públicas e inteligencia artificial: ¿más o menos discrecionalidad?, in El Cronista del Estado social y democrático de Derecho, 96-97, 2022, p. 84.
  39. J. Berryhill et al., Rapport au Parlement du Comité d’éthique et scentifique de Parcoursup, Ministère de l’Enseignement Supérieur de la Recherche et de l’Innovation, France, 2019.
  40. I principi di lealtà e vigilanza sono già stati invocati dalla CNIL, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algortihmes et de l’intelligence artificielle, CNIL, France, 2017, p. 61.
  41. M. Fuertes López M., Reflexiones ante la acelerada automatización de actuaciones administrativas, op. cit.
  42. J. Valero, The Legal Guarantees of Artificial Intelligence in Administrative Activity: Reflections and Contributions from the Viewpoint of Spanish Administrative Law and Good Administration Requirements, in European Review of Digital Administration & Law (ERDAL), vol. 1, Issue 1-2, 2020, June-December, pp. 55-61.
  43. Il ruolo dei principi come la trasparenza e la responsabilità è vitalè per un’IA affidabile OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449.
  44. Per una prospettiva sulla protezione dei dati, si veda: A. Boto Álvarez, Tratamiento de datos personales: entre la protección francesa de la vida privada y el mercado digital único, in Revista General de Derecho Administrativo, 49, 2018, pp. 6-7.
  45. N. Muciaccia, Algoritmi e procedimento decisionale: alcuni recenti arresti della giustizia ammnistrativa, in federalismi.it, 10, 2020.
  46. E. Carloni, IA, algoritmos y Administración pública en Italia, in IDP: revista de Internet, derecho y política, 30, 2020.
  47. A. G. Orofino, La trasparenza oltre la crisi. Accesso, informatizzazione e controllo civico, Cacucci Editore, Bari, 2020, pp. 193-236.
  48. Si veda la Disposizione Aggiuntiva Terza della legge di Valencia n. 22/2018, del 6 novembre. Anche la relazione dell’Ufficio antifrode della Catalogna, con riferimento ai sistemi d’allerta automatizzati per gli appalti pubblici del settembre 2022.
  49. H. M. Motzfeldt, Reflections on the need for further research within national administrative law before the EU Artificial Intelligence Act comes into effect: A Danish perspective, in European Review of Digital Administration & Law (ERDAL), vol. 3, Issue 1, 2022.
  50. Corte giust., sentenza 4 aprile 2017, C-337/15 P, Mediatore europeo contro Claire Staelen, ECLI:EU:C:2017:256, o sentenza 22 novembre 2017, C-691/15 P, Bilbaína de Alquitranes, SA e a. contro Commissione europea, ECLI:EU:C:2017:882.
  51. M. H. Motzfeldt, Reflections on the need for further research within national administrative law before the EU Artificial Intelligence Act comes into effect: A Danish perspective, op.cit.
  52. Come ha fatto il modello a raggiungere questo risultato? Di quali dati si è servito e con quali calcoli? Sull’interpretabilità, si può guardare E. D. Peet et al., Machine Learning in Public Policy: The Perils and the Promise of Interpretability, in RAND Corporation, PE-A828-1, 2022.
  53. Perché sono stati ottenuti questi risultati e non altri?
  54. Intelligibilità della procedura e intelligibilità dei risultati, com’è stato indicato da M. Pégny e I. Ibnouhsein, Quelle transparence pour les algorithmes d’apprentissage machine?, 2018.
  55. I. Martín Delgado, Automation, Artificial Intelligence and sound administration. A few insights in the light of the Spanish legal system, op. cit.
  56. J. Valero Torrijos, Las garantías jurídicas de la inteligencia artificial en la actividad administrativa desde la perspectiva de la buena administración, in Revista catalana de dret públic, 58, 2019, pp. 82-96.
  57. H. M. Motzfeldt, Reflections on the need for further research within national administrative law before the EU Artificial Intelligence Act comes into effect: A Danish perspective, op. cit.
  58. Si mette in evidenza la figura italiana del Difensore civico digitale (art. 17 CAD).
  59. D. A. 117ª della l. n. 22/2021 (Bilancio dello Stato).
  60. Nella ENIA.
  61. Per questo tipo di vulnerabilità, si veda S. Ranchordas, Automation of Public Services and Digital Exclusion, in I-CONnect Blog of the International Journal of Constitutional Law, 2020, e A. Nogueira López, Vulnerabilidad administrativa. Los obstáculos administrativos en el acceso a los programas de vivienda, in Políticas y derecho a la vivienda: gente sin casa y casas sin gente, Valencia, Tirant lo Blanch, 2020.
  62. J. C. Tejedor Vielsa, Transformación digital, blockchain e inteligencia artificial. Referencias y experiencias en Aragón, in ERDAL, vol. 2, Issue 2, 2021, pp. 67-69.
  63. Nei casi in cui la competenza è di un organo collegiale, ad esempio nell’art. 22.1. 2º della Legge Generale sulle Sovvenzioni, che dovrebbe convalidare, senza incorrere in pregiudizi di automazione, la decisione.

Eva Maria Menéndez Sebastián

Full Professor of Administrative Law, University of Oviedo.