Intelligenza artificiale e contratti pubblici: problemi e prospettive

Tags: , , ,

2/2024

Intelligenza artificiale e contratti pubblici: problemi e prospettive

Tags: , , ,

Dopo avere operato una distinzione preliminare tra l’Intelligenza Artificiale come strumento per lo svolgimento di procedure di acquisto da parte della pubblica amministrazione, e l’Intelligenza Artificiale come oggetto di tali acquisti, il contributo si concentra sull’analisi del fondamento e dei limiti del contratto pubblico quale elemento di regolazione dell’Intelligenza Artificiale. Si ritiene, infatti, che stabilire un’interazione sistemica tra l’acquisto di AI da parte delle Pubbliche Amministrazioni e la regolamentazione dell’IA stessa sia cruciale. Ciò contribuirebbe a determinare i contenuti delle norme e la qualità dei risultati associati all’uso dei sistemi di IA in ambito pubblico.


Artificial intelligence and public contracts: challenges and opportunities
After distinguishing between the use of Artificial Intelligence as a tool for public entities to carry out purchasing procedures and the use of Artificial Intelligence as the object of such purchases, the paper focuses on the rationale and limitations of considering public procurement as a tool for regulation. It is believed that establishing a systemic interaction between the government's purchase of AI and the regulation of AI itself is crucial. This would aid in determining the regulations and the quality of outcomes associated with the use of AI systems in the public sector.
Summary: 1. Funzioni pubbliche e intelligenza artificiale.- 2. L’acquisto di (sistemi di) intelligenza artificiale come problema presupposto alla utilizzazione di questa per l’esercizio di funzioni pubbliche.- 3. L’intelligenza artificiale nel codice dei contratti pubblici.- 4. I contratti pubblici come strumento di regolazione dell’intelligenza artificiale.- 5. La regolazione amministrativa dell’intelligenza artificiale e gli appalti pubblici di intelligenza artificiale.- 6. Clausole tipo per i contratti pubblici di intelligenza artificiale.- 7. Profili organizzativi inerenti l’acquisto (e l’uso) di strumenti di intelligenza artificiale per l’esercizio di funzioni pubbliche.- 8. Contratti pubblici di intelligenza artificiale e regime giuridico dell’esercizio delle funzioni pubbliche.

1. Funzioni pubbliche e intelligenza artificiale[1]

L’analisi delle problematiche giuridiche inerenti l’uso dell’intelligenza artificiale non è certo nuova[2], ma si è di recente molto sviluppata. Ciò sostanzialmente dipende dagli sviluppi tecnici che l’intelligenza artificiale ha da ultimo conosciuto, di modo che rendendosene (più) concreta l’utilizzazione, le correlate questioni giuridiche divengono d’interesse concreto ed attuale[3]. La questione delle “regole” da riferirsi all’intelligenza artificiale, ma soprattutto la regolazione di questa, si affaccia dunque nei vari ordinamenti giuridici, nel contesto dei quali emergono approcci, sensibilità e, se si vuole, impostazioni di base anche sensibilmente diversi[4].

Non ne sono interessati solo gli aspetti che, secondo una distinzione persistente ancorché (sempre più) claudicante tra diritto pubblico e privato[5], quest’ultimo concernono. E infatti anche, e si direbbe forse soprattutto, pure il diritto pubblico ne risulta interessato. Ciò, va osservato, non solo in quanto la regola(menta)zione dell’intelligenza artificiale è questione rilevante per i poteri pubblici, tutti e nessuno escluso, e quindi per: il legislatore che deve disciplinarla[6], l’amministrazione che deve (successivamente) regolarla[7], il giudice che deve verificarne la conformità al diritto dei suoi esiti. Ma, anche, perché è lo stesso esercizio delle funzioni pubbliche che può risultare interessato dall’uso di sistemi di intelligenza artificiale, nel senso specifico per cui tali funzioni possono essere concretamente poste in essere mediante strumenti di questo tipo. In termini caratteristici, si parlerà quindi di funzione legislativa, di funzione amministrativa e di funzione giurisdizionale che si estrinsecano per il tramite di sistemi di intelligenza artificiale.

Innanzi a tale prospettiva, si pone una questione preliminare relativa all’opportunità di quest’uso, che si inserisce all’interno di quella, più ampia, inerente alle criticità e ai rischi[8], anche etici, che l’intelligenza artificiale per sé pone. Essa, tuttavia, prima facie politica o, se si vuole, anche filosofica, diviene più propriamente giuridica nel momento in cui ci si interroga sul se l’uso (legittimo) dell’intelligenza artificiale debba necessariamente fondarsi su di una specifica legislazione di riferimento, di quali regole, eventualmente ricavate anche in via analogica, esso possa comunque giovarsi, su quali principi giuridici di riferimento l’utilizzazione di strumenti di intelligenza artificiale debba comunque basarsi[9].

In ambito europeo, pur nell’assenza di una puntuale disciplina di riferimento, se ne è ritenuto possibile e consentito l’uso identificandone le caratteristiche ed i limiti, “estratti” in via di interpretazione dalla normativa relativa al trattamento dei dati personali. Così, a partire da questa, la riflessione giuridica ha enucleato taluni principi guida che, pur nella varietà delle loro declinazioni, ha riconosciuto nella trasparenza algoritmica[10], nella non esclusività dell’automazione giuridica e nella (nella necessarietà della) non discriminazione un nucleo intangibile, imprescindibile ai fini del legittimo uso dell’intelligenza artificiale, sia in ambito privato che pubblico[11].

Con riferimento specifico all’ordinamento giuridico italiano, una parte della dottrina aveva manifestato motivate perplessità rispetto all’uso (non già solo dell’intelligenza artificiale ma) degli algoritmi[12], nell’ambito dell’esercizio delle funzioni pubbliche, con argomentazioni critiche ed articolate rispetto alle decisioni automatizzate, in effetti articolate per lo più riferite a questioni concrete concernenti l’attività amministrativa[13]. In un primo momento, una posizione di chiusura era stata al riguardo espressa anche dalla giurisprudenza[14], che ne ha poi riconosciuto l’ammissibilità, successivamente precisandone i presupposti e la (potenziale) estensione del relativo esercizio[15]. Allo stato attuale, le decisioni amministrative automatizzate mediante algoritmi, e quindi anche quelle sviluppate mediante sistemi di intelligenza artificiale[16], sono ritenute ammissibili nel contesto dell’attività amministrativa, e pur quando la stessa manifesti contenuto discrezionale[17], ma si ritiene soggiacere al rispetto di alcuni fondamentali principi giuridici. Essi sono quelli della trasparenza dell’algoritmo, o meglio della sua intellegibilità, della “non esclusività” della decisione algoritmica, altrimenti declinata quale riserva di umanità, e della non discriminazione algoritmica, per cui tali tipologie di decisioni non debbono produrre diseguaglianze, rispetto a individui o a categorie di individui[18].

La più recente disciplina europea in tema di intelligenza artificiale, approvata sebbene non ancora in vigore, riafferma e sviluppa tali principi, ma ne perimetra l’estrinsecazione, peraltro inserita all’interno di un quadro regolatorio complesso e articolato[19]. Qualsiasi discussione giuridica relativa all’intelligenza artificiale non può quindi (più) prescindere dall’analisi di tali principi, di cui però sono compiutamente da definirsi i presupposti teorici e i risvolti applicativi. In primo luogo, infatti, la loro precipua estrinsecazione dipende, secondo la rilevanza giuridica disegnata dal Regolamento europeo, dalle specificità del sistema di intelligenza artificiale, dal contesto in cui se ne fa uso nonché dalle modalità con cui viene utilizzato. Inoltre, trattandosi di principi, o comunque di regole per lo più espresse mediante formulazioni e concetti giuridici indeterminati, risulta necessario declinarli all’interno di fattispecie e di contesti al fine di strutturarne l’effettiva consistenza.

Preliminarmente, tuttavia, è bene segnalare come sia la disponibilità, certamente tecnica ma comunque giuridicamente caratterizzata, di un particolare tipo di intelligenza artificiale, a condizionare gli esiti delle funzioni pubbliche che (per) suo tramite si pongono in essere. Si vuole cioè evidenziare che, se nel contesto della valutazione giuridica dell’intelligenza artificiale rimane essenziale la considerazione di quanto essa (concorre a) determina(re), tale valutazione necessita di dovere prendere in considerazione le condizioni strutturali del suo esercizio. Così, con riferimento allo svolgimento delle funzioni pubbliche mediante l’uso dell’intelligenza artificiale diviene centrale l’analisi dei contratti pubblici che questi strumenti rendono disponibili, “disciplinandone” al contempo gli sviluppi operativi.

2. L’acquisto di (sistemi di) intelligenza artificiale come problema presupposto alla utilizzazione di questa per l’esercizio di funzioni pubbliche

L’articolarsi delle considerazioni presenti nel precedente paragrafo evidenzia uno snodo centrale ai fini del ragionamento, che è quello concernente la rilevanza, pratica ma anche giuridica, dello strumento di intelligenza artificiale che si utilizza nel contesto dell’esercizio delle funzioni pubbliche. Va infatti osservato che la tipologia di intelligenza artificiale (pre)scelta non è praticamente indifferente rispetto agli esiti che si producono (o che si intendono produrre), così come non risultano essere (giuridicamente) indifferenti le sue modalità di utilizzazione.

Per esempio, l’utilizzazione di un modello deterministico di intelligenza artificiale piuttosto che uno basato sul machine learning assume delle precise refluenze in ordine alla trasparenza dei processi decisionali che dall’uso di questi algoritmi risultano interessati[20]. Nel primo caso, infatti, dovrebbe aversi una piena intellegibilità in ordine ai presupposti (logici) mediante cui tali processi si sviluppano, che eventualmente sfuma solo nel momento pratico dell’applicazione concreta[21]. Nell’ambito del machine learning, invece, lo sviluppo del “ragionamento” algoritmico è, almeno a partire da un certo momento, non intellegibile, o comunque non pienamente tale[22], e ciò in quanto la correlazione tra dati che vale ad estrarre la “regola” su cui la decisione si fonda viene sviluppata dalla macchina, senza quindi che tale correlazione possa essere comprensibile o nota, nemmeno a chi l’algoritmo ha creato mediante la programmazione del relativo software[23].

Nel contesto dell’esercizio delle funzioni pubbliche una tale opzione non è neutra, e ciò non solo per gli esiti che si intendono acquisire, ma anche per le modalità, sia formali che sostanziali, con cui tali funzioni debbono estrinsecarsi. Facendo ad esempio riferimento all’uso del machine learning nell’ambito delle funzioni amministrative, è in ragione delle regole che all’esercizio di questa funzione si riferiscono che continua a rilevare la necessità per l’amministrazione di spiegare, e per ciò di rendere (quanto più possibili) intellegibili, sia le modalità di funzionamento dell’algoritmo in generale come anche, nello specifico, di fornire una motivazione che dia conto degli esiti raggiunti all’interno di ciascun procedimento decisionale. Tale ultima esigenza, se appunto immaginata intatta nella sua impostazione caratteristica, si complica ulteriormente nel rapporto tra la strumentalità dell’automazione rispetto alla decisione amministrativa e la centralità dell’apporto umano che si (continua a) richiede(re)nel contesto di questa. E, può ancora osservarsi, il grado di sofisticazione di un algoritmo di machine learning può incidere sul livello di accuratezza e di precisione delle corrispondenti decisioni, ma quanto più queste caratteristiche qualitative si incrementano tanto più può risultare complicato fornirne una spiegazione, e quindi una congrua motivazione.

Si introducono pertanto problematiche e prospettive di analisi ancora solo in parte percepibili nelle loro effettive implicazioni. Esse, tuttavia, rendono sin da subito evidente la rilevanza che assume la scelta del modello di intelligenza artificiale da utilizzare, e la specifica tipologia di questa in concreto acquisita. Così, nel contesto della complessiva rilevanza giuridica dell’attività dei soggetti pubblici, si inserisce anche la dimensione “politica” inerente alla (eventuale) acquisizione degli strumenti di intelligenza artificiale di cui ci si intende giovare nel contesto dell’esercizio delle corrispondenti funzioni. Peraltro, anche la “gestione” operativa di tali sistemi, e quindi anche del contratto su cui si basa l’acquisto e che ne regima l’esecuzione, non risulta affatto indifferente per gli esiti che l’intelligenza artificiale può determinare. Un aspetto al riguardo fondamentale è rappresentato dalla selezione, dalla coerenza e dalla stessa “conservazione” dei dati che sono necessari ai fini del funzionamento degli algoritmi utilizzati, elementi essenziali nell’ambito del machine learning. Ed è questa un’attività che, quantomeno nella fase iniziale di “addestramento” dell’algoritmo, fa assumere sempre rilevanza alla componente umana, e che peraltro implica, anche dal punto di vista organizzativo, la creazione di nuove strutture al riguardo strumentali, ovvero la riallocazione funzionale o il potenziamento di quelle al riguardo già esistenti.

La novità delle questioni, qui per forza di cose solo accennate, potrebbe comunque riuscire a conservare gli elementi di garanzia che il diritto edifica al cospetto dell’esercizio delle funzioni pubbliche anche in queste nuove form(ul)e, riaggiornando impostazioni e soluzioni alla luce di consolidati principi giuridici. Per fare questo, però, sembra necessario riferire ogni elemento di giuridicità allo strumento algoritmico di intelligenza artificiale: anche in quest’ambito la tecnica è solo apparentemente neutrale od oggettiva, e bisogna quindi intraprendere con rinnovato impegno scientifico ogni percorso necessario al fine di governarne giuridicamente i processi e gli esiti[24].

Sviluppando l’estensione delle coordinate esposte, si mette per ciò in luce la centralità della contrattualistica pubblica quando si promuove l’esercizio di funzioni pubbliche (anche) attraverso sistemi di intelligenza artificiale. Occorre infatti avere presente che non sempre, anzi per il vero abbastanza raramente, le autorità pubbliche sono in grado di realizzare autonomamente tali strumenti, e lo scegliere di adoperare l’intelligenza artificiale nell’esercizio delle proprie funzioni implica quindi che gli stessi siano acquistati da operatori privati.

Come si intuisce, però, le problematiche che al riguardo emergono sono ben diverse da quelle degli acquisti comuni della pubblica amministrazione. Prima di tutto, i contratti pubblici di intelligenza artificiale concretizzano per lo più acquisti innovativi, con tutte le difficoltà che alla progettazione delle relative procedure, allo svolgimento di queste e alla esecuzione dei contratti stipulati risultano correlate. Si tratta di questioni ancora relativamente nuove, rispetto alle quali la riflessione, in particolare quella scientifica, necessita di essere implementata. I contratti pubblici di intelligenza artificiale, poi, devono, o almeno dovrebbero, contribuire a uno sviluppo qualificato di questo strumento, con tutti quegli elementi che devono caratterizzarne gli esiti nei termini prima descritti, e risultando per ciò necessario congegnare i relativi meccanismi con modalità tali da poterli effettivamente acquisire. Contratti peraltro che, proprio in ragione della necessariamente perdurante caratterizzazione qualitativa dei loro esiti, dovranno essere governati con particolare cura nella loro fase esecutiva, dunque con una rilevanza dell’interesse pubblico che (ancora più) nitidamente emerge anche in questa fase della contrattualistica pubblica. Inoltre, alla dimensione regolatoria che questa finisce inevitabilmente con l’assumere in tale ambito, si correlano, o meglio ancora si correleranno in ragione delle più recenti novità normative emerse a livello europeo, precipue forme di regolazione amministrativa, che negli sviluppi dei contratti pubblici di intelligenza artificiale si inserisce e che sugli esiti del(correlativo esercizio del)le funzioni pubbliche incide.

In definitiva, quando il compimento di funzioni pubbliche attraverso intelligenza artificiale ha come suo presupposto l’acquisto del relativo sistema, e quindi su di un contratto (pubblico) si fonda, questo diviene al contempo strumento ed oggetto di regola(menta)zione. Tale prospettiva apre lo spazio verso analisi che appaiono per lo più inedite, rispetto alle quali le considerazioni che seguono vorrebbero contribuire a introdurre dei primi elementi di riflessione.

3. L’intelligenza artificiale nel codice dei contratti pubblici

Quando si discute della relazione esistente tra contratti pubblici e intelligenza artificiale l’oggetto dell’analisi può in effetti essere duplice. Per un verso, infatti, esso può afferire all’uso dell’intelligenza artificiale quale strumento utile allo svolgimento delle procedure di affidamento di contratti pubblici, al più efficiente sviluppo della loro fase esecutiva e, più in generale, all’analisi di sistema dei processi della contrattualistica pubblica, anche al fine di correggerne distorsioni rispetto a casi specifici. Per un altro, e si direbbe più in generale, l’intelligenza artificiale può essere considerata come l’oggetto dell’acquisto di un contratto pubblico[25]. Peraltro, le due questioni possono concretamente intersecarsi in quanto, laddove la pubblica amministrazione non proceda all’autoproduzione degli strumenti di intelligenza artificiale che si utilizzano ai fini dello svolgimento delle procedure della contrattualistica pubblica, gli stessi sono a loro volta oggetto di acquisto da parte di soggetti privati.

La dottrina italiana si è principalmente intrattenuta sul primo degli aspetti indicati. Nel contesto dell’analisi dei processi di digitalizzazione dei contratti pubblici, significativamente implementati dal nuovo codice[26], ci si è infatti intrattenuti sull’uso dell’intelligenza artificiale in quest’ambito e sulla sua disciplina[27], ponendo in opportuna correlazione l’accresciuta disponibilità dei dati che la digitalizzazione determina con le opportunità che lo strumento dell’intelligenza artificiale offre ai fini di una più adeguata allocazione delle risorse e di una migliore soddisfazione dei bisogni, prospettandosi la possibilità di verificare con maggiore immediatezza inefficienze e collusioni[28]. D’altra parte, il collegamento tra l’accrescimento dei dati a disposizione e la possibilità di fare ricorso a procedure automatizzate mediante algoritmi di autoapprendimento risulta molto chiaramente espresso nella relazione al codice[29]. Già prima dell’approvazione di questo, peraltro, la riflessione dottrinaria si era occupata della automazione sia delle procedure di evidenza pubblica che della loro esecuzione, correlandole al sistema della blockchain[30].

Il d.lgs. n. 36/2023, contenente la disciplina del nuovo codice dei contratti pubblici, in effetti, sembra esclusivamente occuparsi dell’uso delle procedure automatizzate, anche quelle di intelligenza artificiale, nel contesto dello svolgimento delle procedure di evidenza pubblica. Tuttavia, le novità adesso introdotte nel diritto positivo possono comunque fornire dei punti di riferimento generali, utili alla comune valutazione dell’intelligenza artificiale come oggetto delle procedure di acquisto.

In termini di principio, l’articolo 19, comma 7, del d.lgs. n. 36/2023, prevede che, laddove possibile in relazione al tipo della procedura di affidamento, le stazioni appaltanti devono fare ricorso a procedure automatizzate nella valutazione delle offerte. L’utilizzazione dell’indicativo presente nella disposizione richiamata, fa assumere a questa modalità la caratteristica della ordinarietà, eludibile (solo) in via di eccezione. Se, quindi, le esigenze di funzionalità hanno in tal senso orientato il diritto positivo, si tratterà di comprendere in concreto in che termini, e sulla base di quali presupposti, sarà possibile derogarvi, e non può nemmeno essere escluso che, assenti giustificazioni effettive, potrebbe risultarne invalidata la procedura.

La regolamentazione puntuale, invece, la si ritrova all’articolo 30 del codice dei contratti pubblici. Qui, presupponendo non solo lo sviluppo ma anche l’acquisto di sistemi che consentono di procedere con la valutazione “automatica” delle offerte[31], e in linea con gli esiti generali cui è infine pervenuta la giurisprudenza amministrativa in tema di decisioni algoritmiche[32], si richiamano i principi di conoscibilità e comprensibilità dei processi decisionali automatizzati, di non esclusività della decisione algoritmica e di non discriminazione algoritmica[33]. Si tratta peraltro, come nel proseguo si avrà occasione di precisare, di elementi che risultano essere pressoché coincidenti a quelli adesso rinvenibili nel Regolamento europeo sull’intelligenza artificiale e che, allo stesso modo di questa disciplina, necessitano di un’attività di precisazione utile a perimetrarne il contenuto applicativo[34].

La disposizione prima richiamata contiene due ulteriori elementi, i quali meritano di essere opportunamente segnalati, anche per il significativo rilievo, teorico come pratico, che finiscono con l’assumere.

Uno concerne la necessaria introduzione, già a partire dalla documentazione di gara, di clausole volte ad assicurare le prestazioni di assistenza e di manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall’automazione[35]. Si tratta di una previsione importante che, in linea con alcune notazioni della dottrina, evidenzia la (complessiva) rilevanza giuridica delle modalità concrete di utilizzazione dell’algoritmo, segnalando per sé l’insufficienza del momento dell’acquisto ai fini della connotazione qualitativa dell’uso dell’intelligenza artificiale nel contesto dell’esercizio di pubbliche funzioni[36].

L’altro pertiene alla acquisizione della disponibilità del codice sorgente da parte del soggetto pubblico, ma non anche la sua ostensione indiscriminata, posto che l’accesso al codice sorgente da parte dei privati diviene possibile solo se indispensabile ai fini della difesa in giudizio di interessi giuridici[37]. Tale previsione, apparentemente apprezzabile in senso divergente rispetto alle posizioni della giurisprudenza amministrativa[38], sembra per ciò scindere il momento della trasparenza algoritmica da quello della disponibilità del codice sorgente. Il primo va realizzato a prescindere, rafforzandosene anche la consistenza mediante l’obbligo di pubblicazione[39], e implica uno sforzo esplicativo che dall’acquisizione del secondo prescinde. Si realizza così un bilanciamento tra le esigenze conoscitive proprie alla trasparenza del processo decisionale automatizzato, la garanzia dei diritti di difesa e la tutela dei diritti di proprietà intellettuale, essendo peraltro quest’ultima problematica ritenuta centrale nel contesto dello sviluppo degli acquisti innovativi della pubblica amministrazione.

4. I contratti pubblici come strumento di regolazione dell’intelligenza artificiale

Una volta che a(gli esiti de)ll’intelligenza artificiale si riferiscono necessariamente specifici elementi caratteristici, valutabili in termini strutturali, funzionali e di garanzia, la problematica giuridica che principalmente si pone è quella relativa al come ottenerli, tanto più in assenza di una specifica legislazione di riferimento. Nelle condizioni descritte, e con particolare riguardo all’uso dell’intelligenza artificiale nel contesto dell’esercizio di funzioni pubbliche, la riflessione dottrinaria ha considerato la contrattualistica pubblica come un vero e proprio strumento di regolazione dell’intelligenza artificiale, idoneo a modellarne le modalità di funzionamento, gli sviluppi e gli esiti.

Una simile impostazione può riscontrarsi nella dottrina statunitense, dove si ricostruisce, almeno come “punto di partenza”, l’utilizzazione del public procurement (process) quale elemento strumentale al fine di consentire un uso tanto effettivo quanto “responsabile” dell’intelligenza artificiale nell’esercizio delle funzioni pubbliche[40]. In questa prospettiva, la contrattualistica pubblica viene altresì considerata come espressione di una dimensione politica, idonea a consentire un recupero democratico della proposizione di scelte tecniche strutturalmente opache, sia nella loro impostazione preliminare che rispetto alla determinazione dei conseguenti esiti concreti[41]. Così, il rapporto tra contratti pubblici e intelligenza artificiale viene rappresentato (anche) in termini di garanzia. In termini procedurali, nel momento in cui si suggerisce la strutturazione di meccanismi di audit[42], o quando si propone la verifica delle performance relative alla esecuzione dei contratti pubblici di intelligenza artificiale[43]. Ma anche, e si direbbe soprattutto, da un punto di vista sostanziale, quando cioè il “governo” di questi contratti viene ritenuto idoneo a fare assumere alle decisioni pubbliche che utilizzano l’intelligenza artificiale talune caratteristiche specifiche cui, tra l’altro, la trasparenza (delle ragioni che informano le decisioni)[44], l’accuratezza[45] e la depurazione da (potenziali) discriminazioni[46].

Considerazioni nella sostanza analoghe possono più di recente ritrovarsi anche nella dottrina francese, dove si precisa che l’intelligenza artificiale può migliorare sia la strutturazione che lo svolgimento delle procedure di acquisto pubbliche[47], implementandone l’integrità e diminuendo i rischi corruttivi[48]. Ma si osserva pure che la contrattualistica pubblica può essere funzionalmente utilizzata allo scopo di acquisire dei sistemi di intelligenza artificiale qualitativamente caratterizzati[49]: fissandone i requisiti già in sede di gara, e garantendosene l’ottenimento attraverso lo sviluppo di procedure d’acquisto innovative, nonché mediante strumenti di verifica prima della loro effettiva utilizzazione[50].

In questa direzione muovono talune linee guida di importanti istituzioni internazionali e di alcuni Stati, emanate con lo scopo di favorire l’acquisizione di strumenti di intelligenza artificiale da parte del settore pubblico, al contempo promuovendone uno sviluppo con delle caratteristiche ben identificate[51]. E anche la Commissione europea, ormai in vari documenti prodotti, immagina di utilizzare la leva della domanda pubblica al fine di favorire una diffusione qualificata dell’intelligenza artificiale[52].

L’idea del contratto (non solo) come oggetto, ma anche come strumento di regolazione non è nuova nelle riflessioni della dottrina[53]. Con specifico riferimento alla contrattualistica pubblica, quindi, se ne riconosce diffusamente l’implementazione ai fini dell’ottenimento di interessi ultronei a quelli (direttamente) soddisfatti dall’acquisto, come è, ad esempio, per la tutela dei diritti sociali, della sostenibilità, dell’ambiente e dell’innovazione. Nel caso dell’intelligenza artificiale, tuttavia, si ha il riscontro di non indifferenti criticità, le quali fanno fondatamente dubitare in ordine al possibile uso dei contratti pubblici come strumento idoneo a caratterizzarla secondo precisi standard qualitativi.

Qui, in realtà, l’unidirezionalità nella strutturazione degli interessi non è così evidente, né tantomeno scontata. L’acquirente pubblico di intelligenza artificiale, infatti, mantiene l’obbligo di garantire taluni requisiti sostanziali per l’uso e gli esiti dell’intelligenza artificiale nell’ambito dell’esercizio delle funzioni pubbliche (trasparenza, non esclusività dell’automazione, non discriminazione) che proprio attraverso la contrattualistica pubblica si vorrebbero regola(menta)re, sicché in definitiva il soggetto pubblico verrebbe ad (auto)regolamentarsi da sé medesimo. Ma si tratta di una prospettiva in cui non sono esenti ipotesi di (potenziali) “conflitti”. Un algoritmo “disegnato” per essere più accurato, e quindi funzionalmente più confacente, risulta in generale più opaco e meno trasparente nella possibile esplicazione delle sue modalità di funzionamento. Od ancora, l’effettivo livellamento del principio di non esclusività dell’automazione ha come sua concreta conseguenza l’innalzamento, ovvero la diminuzione, dell’impiego delle risorse umane. Si tratta solo di due esempi, che rendono però evidente la non neutralità della posizione del soggetto pubblico rispetto alle “variazioni regolatorie” che mediante la contrattualistica pubblica vorrebbero essere compiute.

Esse, peraltro, risentono della circostanza “pratica” per cui il soggetto pubblico che intende fare uso dell’intelligenza artificiale acquistandola da privati non è sempre in grado di imporre scelte autonome. Il contraente privato, infatti, si trova spesso in una posizione di supremazia tecnica, e quindi di forza contrattuale, che gli permette quantomeno di condizionare il contenuto del contratto, e quindi gli esiti funzionali che lo stesso sviluppa[54]. Occorre tenere presente, poi, che i principi che si vogliono riferiti all’intelligenza artificiale sono appunto tali, e quindi non esprimono contenuti sufficientemente definiti. La loro declinazione concreta può aversi, o meglio potrà aversi, solo nel contesto dell’applicazione pratica, con ogni conseguente difficoltà che ne deriva rispetto al tentativo di precisarli compiutamente già nel momento in cui si effettua l’acquisto del sistema di intelligenza artificiale. La frammentazione delle procedure degli appalti pubblici, specie nell’assenza di indirizzi comuni, rischia poi di incrementare ulteriormente la condizione di incertezza che necessariamente ne deriva[55].

Molto spesso, inoltre, è con l’uso concreto dell’algoritmo, e quindi con l’implementazione del contratto, che la consistenza qualitativa dell’uso dell’intelligenza artificiale si manifesta, consentendosi quindi solo a questo momento la verifica del rispetto di quei principi che la conclusione del contratto pubblico dovrebbe invece già di per sé determinare. Tale evenienza segnala, ancora una volta (in più), la centralità del momento dell’esecuzione rispetto alla rilevanza dell’interesse pubblico, ma appunto esclude, o comunque limita grandemente, la possibilità di considerare l’evidenza pubblica come momento definitivo ai fini della proposizione di un contenuto “regolatorio” esaustivo per l’intelligenza artificiale ai fini dell’esercizio delle funzioni pubbliche.

Così, mentre si può attribuire alla contrattualistica pubblica una qualche centralità nella definizione di standard tecnici, per esempio in tema di interoperabilità ovvero per impedire condizioni di lock-in idonee a incidere sugli sviluppi successivi delle dinamiche concorrenziali, essa non sembra idonea ai fini della proposizione di un contenuto sostanziale qualitativamente adeguato, affidabile e uniforme per (gli esiti del)l’intelligenza artificiale nell’ambito dell’esercizio delle funzioni pubbliche. Un ruolo quindi insufficiente, ancorché mai inutile, che deve essere necessariamente implementato dai contenuti di una regolazione che si sviluppa dall’esterno rispetto al fenomeno sul quale vuole incidere.

5. La regolazione amministrativa dell’intelligenza artificiale e gli appalti pubblici di intelligenza artificiale

L’argomento che si affronta risulta interessato dalle più recenti novità del diritto europeo in tema di intelligenza artificiale. L’European Artificial Intelligence Act[56], infatti, introduce elementi importanti nel contesto della regolazione dell’intelligenza artificiale, che riguardano, oltre alle caratteristiche sostanziali della stessa e dei suoi esiti, anche la dimensione procedurale entro cui se ne sviluppa sia l’acquisizione che l’uso. Pure il settore pubblico soggiace a tali regole, ed anzi talune, anche di carattere procedurale, sono specificamente riconducibili alle autorità pubbliche. Così, laddove lo Stato, gli enti pubblici, o qualunque altro soggetto titolare di pubbliche funzioni, autoritative o meno, non sviluppi direttamente il sistema di intelligenza artificiale utilizzato, acquistandolo invece da operatori di mercato, si pone la necessità di coordinare questa (nuova) tipologia di regolazione amministrativa con la disciplina dei contratti pubblici, come anche con i principi che, a livello interno, si sono stratificati rispetto all’esercizio di funzioni pubbliche mediante algoritmi.

Preliminarmente, è da dirsi che un numero consistente di oneri, qualitativi ed operativi, che la nuova disciplina europea sull’intelligenza artificiale identifica riguardano solo, o meglio concernono direttamente, i sistemi di intelligenza artificiale definiti ad «alto rischio». Ne deriva che la rilevanza giuridica di molte delle regole europee sull’intelligenza artificiale risulta fondamentalmente subordinata alla sussistenza di due requisiti cumulativi, che sono: (a) l’identificazione di un sistema di automazione (decisionale) come di intelligenza artificiale e (b) la classificazione di questo sistema come ad «alto rischio». Senza avere la possibilità di addentrarsi nel profondo di un documento normativo corposo e complesso, ai fini del ragionamento che si propone occorre comunque disporre di alcuni sintetici riferimenti[57].

La definizione di intelligenza artificiale presente all’interno del Regolamento europeo ricomprende (l’idea di) «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»[58].

Più articolata è invece la definizione di sistema di intelligenza artificiale ad «alto rischio», che si snoda tra indicazioni ed esclusioni, presenti all’articolo 6 e nell’allegato III del Regolamento. A parte la nozione, per così dire strutturale, rinvenibile nel primo comma del medesimo articolo, dove l’identificazione di un sistema ad «alto rischio» viene riferita all’utilizzazione dell’intelligenza artificiale per il caso in cui si tratti della componente di sicurezza di un prodotto o risulti necessaria la sua sottoposizione a una valutazione di conformità da parte di terzi ai fini dell’immissione sul mercato[59], indicazioni al riguardo più precise sono presenti nell’allegato III del Regolamento. Qui, in particolare, vengono tra l’altro identificati come sistemi ad «alto rischio» quelli che: pongono in essere valutazioni biometriche rispetto alle persone[60], sono utilizzati come componenti di gestione e di funzionamento di infrastrutture digitali e di servizi pubblici (non solo di quelli essenziali)[61], sono relativi ad attività e valutazioni in materia di istruzione e di formazione professionale, afferiscono alla gestione dei lavoratori e all’accesso al lavoro, concernono attività e decisioni in materia di migrazione, asilo e gestione delle frontiere[62], sono riconducibili ai contesti dell’amministrazione della giustizia[63].

La descrizione fornita sconta le necessità della definizione di ambiti, molto spesso articolati, che abbisognano di essere precisati all’interno di logiche proprie all’interpretazione giuridica, ma che dovranno necessariamente svilupparsi nel contesto delle dinamiche applicative. Peraltro, le indicazioni presenti nell’allegato III del Regolamento europeo sull’intelligenza artificiale sono da coordinarsi con i meccanismi di deroga identificati all’articolo 6, comma 3, del Regolamento medesimo. Per questa disposizione, infatti, un sistema non viene considerato ad «alto rischio» laddove esso sia destinato: (i) ad eseguire un compito procedurale limitato, (ii) a migliorare il risultato di un’attività umana precedentemente completata, (iii) a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti, e non essendo comunque finalizzato a porre in essere alcuna decisione in assenza di una adeguata revisione umana, ovvero (iv) nel caso in cui abbia il limitato compito di effettuare un’attività preparatoria nell’ambito di fattispecie rientranti nell’ambito di applicazione dell’allegato III.

Il rapporto tra regole ed eccezioni strumentale alla identificazione tipologica del sistema di intelligenza artificiale rilevante, e della corrispondente disciplina giuridica, è certo maggiormente complicato rispetto a quanto qui sinteticamente descritto. Tra l’altro, può essere segnalato che ad alcuni tipi di intelligenza artificiale sono riferiti dei rischi sistemici, come è, per esempio, per quelli con “finalità generali” quando si basano su metodi computazionali di calcolo che superano una determinata consistenza[64]. Sennonché, piuttosto che un’analisi dettagliata del documento normativo europeo da ultimo prodotto, quello che interessa in questa sede far rilevare è che alla attribuzione a un dato sistema di intelligenza artificiale della caratteristica di «alto rischio» si associa una disciplina peculiare, in cui sono presenti elementi sostanziali e procedurali idonei a conformare sia la struttura del sistema che si intende utilizzare che i suoi potenziali esiti.

Per espressa previsione normativa, la Commissione europea dovrà produrre, entro il termine di diciotto mesi dalla data di entrata in vigore del Regolamento, delle linee guida dove sarà specificata la pratica rilevanza di un sistema ad «alto rischio», anche attraverso l’esplicitazione di esempi concreti[65]. Per altro verso, l’Ufficio europeo per l’intelligenza artificiale e gli Stati membri sono chiamati all’elaborazione di codici di condotta diretti ad estendere anche ai sistemi diversi da quelli ad «alto rischio» l’applicazione di quei requisiti per questi obbligatoriamente richiesti, pure alla luce delle soluzioni tecniche e delle migliori pratiche disponibili per il settore[66]. Le attività indicate potranno forse essere utili a dipanare taluni dei dubbi interpretativi, così come a rendere maggiormente uniforme la regola(menta)zione dell’intelligenza artificiale (nell’ambito del settore pubblico). Al momento, tuttavia, la potenziale rilevanza delle eccezioni presenti al comma 5 dell’allegato III, potrebbe avere come conseguenza quella di restituire una limitata rilevanza operativa per le caratteristiche strutturali e gli esiti che il Regolamento vorrebbe (obbligatoriamente) riferire a taluni sistemi di intelligenza artificiale quando rilevano certi tipi di rischi. Ed è peraltro questa una conseguenza che, (ancora) in assenza di riferimenti regolatori precisi, rimane (allo stato) rimessa ad una dimensione auto-applicativa, che ha tra le sue conseguenze negative il proliferare di incertezze e di pratiche difformi. Il potenziale appiattimento sugli standard di settore, poi, potrebbe causare una “cattura” tecnica degli acquirenti pubblici da parte di operatori privati, in genere più competenti e meglio attrezzati[67].

Già queste considerazioni fanno emergere tutte le difficoltà insite nel promuovere un (acquisto e) un uso opportunamente qualificato dell’intelligenza artificiale mediante la contrattualistica pubblica, e tale evenienza ha ulteriore riscontro con l’analisi di quegli elementi che il Regolamento europeo impone nella presenza di un sistema ad «alto rischio». Assumendo la giuridica rilevanza di un sistema di questo tipo, esso dovrà infatti possedere specifici requisiti. Tra questi, quelli di appropriata gestione del sistema[68], di accuratezza e affidabilità dello stesso[69], di proposizione di opportune azioni correttive rispetto al suo funzionamento[70], di governance dei dati[71].

Con riguardo ai requisiti sostanziali che a(ll’attività de)i sistemi di intelligenza artificiale (ad «alto rischio») si riferiscono, può constatarsi la presenza di obblighi che si articolano tra il produttore e chi ne fa uso, e dunque, nel caso di acquirenti pubblici, tra questi e chi il prodotto fornisce. Rispetto all’operatività delle regole di trasparenza, per esempio, incombe sul fornitore l’obbligo di rendere disponibili tutta una serie di informazioni, in modo tale da garantire che il «funzionamento sia sufficientemente trasparente da consentire al deployer di interpretare l’output del sistema e utilizzarlo adeguatamente»[72]. Ma, appunto, degli obblighi di trasparenza ricadono pure sulle amministrazioni pubbliche che questi sistemi utilizzano, e presuppongono una cooperazione del fornitore al loro adempimento[73]. Circostanze simili si riscontrano per le regole relative alla «sorveglianza umana», che è la locuzione che nella versione in lingua italiana del Regolamento europeo sull’intelligenza artificiale si utilizza per indentificare il principio della non esclusività dell’automazione. Si descrivono infatti degli obblighi di progettazione e di sviluppo dei sistemi che sono strumentali a questa necessaria forma di supervisione da parte della persona, o delle persone, che nel contesto di un’attività (decisionale) pubblica li utilizza(no)[74].

Indirizzando più in profondità l’analisi, tuttavia, ci si avvede che le “regole” prima sommariamente descritte, al di là della loro (ipotetica) rilevanza rispetto alla rappresentazione concreta di un sistema come ad «alto rischio», si mantengono a un livello piuttosto elevato di genericità, che le avvicina molto alla (mera) configurazione di principi. La loro precisazione potrà aversi solo attraverso l’esercizio concreto dell’attività di regolazione, senza quindi la possibilità di rappresentare un contributo in tal senso definitivo (già) nel momento in cui si concretizzano gli acquisti di intelligenza artificiale da parte della pubblica amministrazione. Peraltro, occorrerà coniugare la rilevanza solo potenziale di queste “regole”, circoscritta dall’Artificial Intelligence Act ai sistemi ad «alto rischio» e solo eventualmente riferibile ad altri modelli di intelligenza artificiale[75], con i principi emersi nell’ordinamento interno, invece applicabili ad ogni tipologia di automazione algoritmica, anche non di intelligenza artificiale. E una tale estensione non sembra potere essere in linea di principio esclusa, anche perché verrebbe a porsi a garanzia dei livelli di tutela costituzionale su cui i procedimenti decisionali pubblici si fondano.

Il Regolamento europeo sull’intelligenza artificiale, inoltre, nel caso in cui rilevi la presenza di sistemi di intelligenza artificiale ad «alto rischio» pone altresì degli obblighi procedurali, alcuni dei quali concernono specificamente le autorità pubbliche. In particolare, prima di utilizzare tali sistemi di intelligenza artificiale ad «alto rischio» i soggetti sottoposti alle regole del diritto pubblico debbono svolgere una valutazione di impatto sui diritti fondamentali che l’uso di tali sistemi può produrre[76]. Bisogna per ciò immaginare che gli acquisti pubblici di intelligenza artificiale siano sottoposti a una condizione, determinata dall’esito positivo di questa valutazione. Oppure adoperare strumenti giuridici che la stessa valutazione inglobino, come potrebbe essere per il caso della procedura di aggiudicazione dei partenariati per l’innovazione[77].

6. Clausole tipo per i contratti pubblici di intelligenza artificiale

Nonostante le difficoltà segnalate, la contrattualistica pubblica non può che rimanere centrale nello strutturare il funzionamento e gli esiti dei sistemi di intelligenza artificiale che i soggetti pubblici utilizzano dopo avere acquistato gli stessi da fornitori esterni.

Consapevole di tale importanza, nel contesto della Public Buyers Community la Commissione europea ha esitato dei modelli contrattuali che hanno lo scopo di contribuire all’acquisto, all’utilizzazione, e per ciò allo sviluppo, di sistemi di intelligenza artificiale trasparenti e affidabili. Essi, ancorché sviluppati prima dell’approvazione dell’European Artificial Intelligence Act, ne riproducono l’impostazione di fondo, distinguendo tra sistemi ad «alto rischio» e sistemi che non lo sono, e quindi proponendosi due distinti modelli contenenti clausole contrattuali: uno “completo”[78] ed un altro “leggero”[79], riferiti, rispettivamente, ai primi e ai secondi. La sovrapposizione tra regolamento e modelli contrattuali, tuttavia, non appare esattamente coincidente, e infatti anche nella versione “leggera” si ritrovano prescrizioni e requisiti, come quello della intellegibilità del sistema e dei suoi esiti, o l’altro in tema di supervisione umana, che invece nel Regolamento europeo concernono (tendenzialmente) solo i sistemi ad «alto rischio».

Nello stesso portale in cui tali modelli risultano pubblicati si preannuncia un adattamento delle clausole tipo predisposte per riallinearle alla definitiva versione del Regolamento europeo sull’intelligenza artificiale, e questo consente forse di prescindere da un’analisi eccessivamente analitica. Piuttosto, rimane importante considerare l’effettiva utilità dello strumento, almeno per come allo stato congegnato, a proporsi in termini realmente utili ai fini della regola(menta)zione dei sistemi di intelligenza artificiale che i soggetti pubblici acquistano.

Preliminarmente, va osservato il riprodursi di quel problema di auto-valutazione già segnalato per la disciplina regolamentare europea. L’identificazione, o meno, di un sistema come ad «alto rischio», porta con sé una diversa configurazione delle regole contrattuali, con una disciplina che sarà per ciò diversa in ragione di scelte preliminari la cui effettiva uniformità dovrà essere verificata sul campo, con rischi di parcellizzazione che sono certo di non poco momento.

Ma è il contenuto sostanziale delle clausole oggetto di analisi a manifestare le principali criticità. In generale, infatti, non sembrano emergere contenuti definiti, e piuttosto ci si riferisce a (futuri) standard altrimenti acquisiti. Ora perché derivanti dall’esercizio dei poteri di regolazione delle preposte autorità, ora in quanto ricondotti a quelli “comuni” presenti nel mercato. Soprattutto in quest’ultimo caso, quindi, si presenta un rischio di “cattura” del soggetto pubblico da parte di operatori di mercato che quegli stessi standard hanno determinato, o comunque hanno concorso a determinare.

Alcuni riferimenti concreti possono forse rendere maggiormente evidenti queste considerazioni.

In materia di trasparenza del sistema di intelligenza artificiale, per esempio, la clausola presente nel modello contrattuale di «alto rischio » richiede al soggetto pubblico di “spiegare” le decisioni rese mediante i sistemi di intelligenza artificiale, e a tal riguardo si ricostruisce un preliminare obbligo di designare e sviluppare questi stessi sistemi in modo tale che siano sufficientemente trasparenti da consentire al soggetto pubblico di ragionevolmente comprenderne il funzionamento[80]. Sennonché, al di là della indicazione di porre preventivamente in essere dei meccanismi di audit, si designano dei (generici) obblighi di assistenza del fornitore, ed altrettanto genericamente si assume in capo a questo l’obbligo di fornire tutte le informazioni, anche tecniche, necessarie a spiegare come il sistema sia giunto a una data decisione[81]. Tuttavia, resta “opzionale” l’obbligo di rendere disponibile il codice sorgente, e perfino l’insieme dei dati utilizzato (dataset), di modo che la trasparenza (pur in astratto) prevista resta quantomeno perplessa, e comunque certamente generica. Inoltre, rimane assolutamente libera l’indicazione (contrattuale) dei requisiti tecnici che tale risultato dovrebbe rendere possibile[82].

Considerazioni analoghe possono svolgersi con riguardo alla necessità del controllo umano rispetto alle decisioni assunte mediante sistemi di intelligenza artificiale. Per quest’aspetto, infatti, si richiede al fornitore una progettazione e uno sviluppo congegnati con modalità tali da fare assumere concretezza all’interrelazione uomo-macchina, precisamente al fine di rendere effettivamente possibile il controllo umano in una misura proporzionale con riferimento alla tipologia di rischi che lo stesso sistema è in grado di ingenerare[83]. Vero è che si forniscono (successivamente) alcune indicazioni specifiche, per lo più correlate agli elementi tecnici che rendono possibile la comprensione del sistema presupposto al controllo umano[84]. Tuttavia, resta la constatazione inerente a una previsione che è strutturalmente generica, in quanto ancorata a concetti per lo più indeterminati quali sono quelli di effettività e di proporzionalità, e che dunque per divenire concreta abbisogna di parametri di riferimento correlati alla specificità del caso (o, meglio, dei casi). Ancora una volta, poi, non sono (ulteriormente) determinati i requisiti tecnici e organizzativi necessari a soddisfare l’obbligo in questione[85].

Pure prescindendo dalle problematiche più ampie, in quanto connesse alle previsioni di clausole meno dettagliate, relative ai sistemi “non ad alto rischio”, resta il dato relativo a previsioni contrattuali tipo enucleate per lo più in termini di principio, in quanto tali fondamentalmente inidonee ad esprimere un contenuto regolatorio compiuto, o quantomeno sufficientemente esaustivo al fine di caratterizzarne finalisticamente gli esiti. In una situazione simile, è facile immaginare che solo pochi, e deve assumersi qualificati, acquirenti pubblici saranno in grado di fronteggiare l’imposizione di standard che promanano dagli operatori di mercato, con tutti i rischi che ne derivano in termini di funzionalità, di tutela dei diritti di quanti dai relativi processi decisionali risultano interessati, di chiusure tecniche che possono rendere difficoltoso il mutamento del sistema su cui l’intelligenza artificiale si fonda. Il futuro esercizio dei poteri di regolazione in materia di intelligenza artificiale adesso previsti a livello europeo, tuttavia, potrà, e si direbbe anzi dovrà, in tal senso offrire rilevanti elementi di concretizzazione, al fine di consentire il più proficuo sviluppo dell’intelligenza artificiale (anche) nell’ambito dell’esercizio delle funzioni pubbliche, caratterizzandone gli esiti nei termini qualitativamente necessari.

Da un punto di vista teorico, quindi, la proposizione normativa per sé propria al contratto (pubblico) si arricchisce nei contenuti e, prima ancora, nei suoi sviluppi. La dottrina ha evidenziato il valore normativo delle clausole d’uso, basandone peraltro la rilevanza non (solo) in ragione dell’elemento consuetudinario che vi si accosta, ma piuttosto sulla posizione (istituzionale) del soggetto che le produce[86]. Nel caso oggetto di analisi questo impianto concettuale si dimostra arricchito da un elemento ulteriore. Il contenuto normativo, anche di singoli provvedimenti di regolazione[87], infatti, potrà riprodursi all’interno dei modelli contrattuali in questione, contribuendo quindi alla proposizione di una normatività che si stratifica progressivamente nel tempo[88], anche in ordine a livelli tipologicamente distinti di operatività[89].

7. Profili organizzativi inerenti l’acquisto (e l’uso) di strumenti di intelligenza artificiale per l’esercizio di funzioni pubbliche

Gli acquisti di sistemi di intelligenza artificiale da parte di soggetti pubblici, e il relativo esercizio di funzioni pubbliche mediante questi, necessitano di essere inseriti all’interno di un contesto organizzativo adeguato al fine di potere utilmente conseguire quegli scopi cui intendono corrispondere.

Come noto, nell’ambito della contrattualistica pubblica le problematiche dell’organizzazione sono state per lo più investigate con riferimento alla capacità delle stazioni appaltanti di porre efficacemente in essere le procedure di acquisto. Da qui, l’analisi della centralizzazione degli acquisti[90], della qualificazione delle stazioni appaltanti[91], ma anche, specie con riferimento ai contratti pubblici innovativi, l’interposizione di soggetti idonei a mettere in correlazione l’offerta presente nel mercato con la domanda pubblica. Nel contesto degli acquisti pubblici relativi all’intelligenza artificiale, tuttavia, la dimensione organizzativa finisce con l’assumere una rilevanza centrale, forse preponderante rispetto al (mero) dato procedurale, e comunque determinante con riferimento agli esiti che l’uso della stessa risulta (potenzialmente) in grado di restituire.

I rischi dell’intelligenza artificiale esprimono potenzialmente delle esternalità negative che non possono essere risolte concentrandosi su questioni specifiche, ma che hanno invece bisogno di una considerazione d’insieme, e quindi di un approccio sistemico alla risoluzione dei problemi. Inoltre, l’intelligenza artificiale, soprattutto nelle sue forme più evolute, si sviluppa a partire dai dati, e questi necessitano di essere adeguatamente selezionati, catalogati, più in generale, quindi, (a loro volta) amministrati[92]. Di qui, allora, la necessità di una governance complessiva, ma anche la creazione e/o il rafforzamento di strutture organizzative, con competenze adeguate, che siano in grado di affrontare, nei vari livelli d’interesse, le problematiche che al riguardo si pongono.

Il Regolamento europeo sull’intelligenza artificiale prefigura un sistema di governance che vede il coinvolgimento necessario di autorità nazionali indipendenti, che gli Stati membri devono designare. Quindi, oltre alla creazione di un ufficio ad hoc presso la Commissione europea[93], si istituisce il Comitato europeo per l’intelligenza artificiale, con compiti di consulenza e assistenza sia alla Commissione che agli Stati membri al fine di agevolare l’applicazione coerente ed efficace delle regole comunitarie sull’intelligenza artificiale[94]. Nel rapporto tra livello centrale europeo e i singoli Stati quella del Comitato appare più che altro come un’attività di coordinamento, che tuttavia prefigura nei suoi sviluppi la costituzione di una rete di autorità nazionali, dove la Commissione potrebbe venire ad assumere un ruolo di centralizzazione (del contenuto) dei processi decisionali. A tutto ciò, si accompagna altresì la creazione di un forum consultivo, al quale partecipano le imprese, la società civile e l’accademia, che assume compiti di supporto sia rispetto all’attività della Commissione che a quella del Comitato prima richiamato nel contesto dell’applicazione del Regolamento europeo sull’intelligenza artificiale[95]. Con compiti più specifici, perché principalmente focalizzati sulle tipologie di intelligenza artificiale che presentano rischi sistemici, è invece l’istituzione di un gruppo di esperti scientifici indipendenti[96].

Tale dimensione organizzativa concerne ovviamente la proiezione regolatoria dell’European Artificial Intelligence Act, e tuttavia, come si è in precedenza argomentato, ne deriva una correlazione diretta tra questo esercizio e gli acquisti pubblici di intelligenza artificiale. Si può anzi osservare che, nella constatazione dei limiti che l’attuale assetto regolatorio manifesta, taluno in dottrina ha suggerito l’istituzione di una rete di autorità nazionali, coordinate a livello europeo, esclusivamente focalizzata nell’affrontare le problematiche dell’intelligenza artificiale nel settore pubblico[97].

La logica regolatoria, peraltro, non può in tal senso considerarsi esaustiva. Innanzi alla necessità di fare uso di dati per il più opportuno funzionamento dell’intelligenza artificiale, i soggetti pubblici debbono dotarsi di strutture idonee all’assolvimento di un tale compito.

Con riferimento alla disciplina interna dei contratti pubblici, la più recente formulazione del codice contiene alcune disposizioni d’interesse, che meritano di essere opportunamente considerate.

In sintesi, il d.lgs. n. 36/2023, mantiene la centralizzazione in capo ad ANAC dei dati all’interno dei quali si sviluppa l’intero ciclo di vita dei contratti pubblici, ma inserisce tale attribuzione all’interno di un pregnante processo di digitalizzazione della intera contrattualistica pubblica[98]. Si costituisce così un sistema di approvvigionamento digitale (e-procurement) che mette in comunicazione le singole piattaforme di approvvigionamento digitale utilizzate dalle stazioni appaltanti con la Banca nazionale dei contratti pubblici, sulla base di specifiche regole tecniche (di interoperabilità), sulle quali interviene anche AGID, e di alcuni fondamentali principi, come quelli dell’unicità dell’invio, del riuso, dell’accessibilità, della trasparenza[99].

L’acquisizione di una mole di dati progressivamente evoluta ed armonizzata dovrebbe per sé consentire – come si è già segnalato – la possibilità di intervenire su inefficienze e distorsioni, e ciò proprio grazie all’uso dell’intelligenza artificiale[100]. Ma è anche essenziale per la gestione delle specifiche funzioni che sull’intelligenza artificiale si fondano, anche ai fini della verifica della loro corrispondenza alle caratteristiche e agli scopi prefigurati. Il processo, per ciò, non parte dal centro, ma dalla periferia: si tratta di identificare quali dati dovranno essere resi disponibili dai committenti pubblici, ma anche di comprendere come, e con quali strumenti (organizzativi), questi devono “governarli” nel momento in cui dei soggetti pubblici fanno uso di sistemi di intelligenza artificiale. E si tratta di una dimensione che ha il riscontro di precisi riferimenti nel diritto positivo, indicativi della presenza di entrambi gli elementi indicati. Per il primo aspetto, infatti, si attribuisce ad ANAC la potestà di individuare con un proprio provvedimento le informazioni che le stazioni appaltanti sono tenute a trasmettere alla Banca dati nazionale dei contratti pubblici[101]. Per l’altro, si impone alle stesse stazioni appaltanti l’obbligo di adottare ogni misura, non solo tecnica ma anche organizzativa, idonea a garantire che siano rettificati i fattori che comportano inesattezze dei dati, che sia minimizzato il rischio di errori, e che siano impediti effetti discriminatori[102].

Emerge quindi un complesso di regole che predispongono le condizioni preliminari per lo svolgimento di attività finalizzate all’esercizio delle funzioni amministrative[103]. Anzi potrebbe forse dirsi che, per il caso dell’esercizio di funzioni pubbliche mediante intelligenza artificiale si istituisce un apparato amministrativo che è strutturalmente servente alle stesse, pur a loro volta introdotte all’interno delle consuete figure organizzative[104].

8. Contratti pubblici di intelligenza artificiale e regime giuridico dell’esercizio delle funzioni pubbliche

Nel ricongiungere le considerazioni svolte, sembrano emergere questioni interessanti, dai probabili sviluppi teorici e sistematici.

Così, si staglia prima di tutto la figura del contratto (pubblico) come strumento per l’esercizio delle funzioni pubbliche[105], ma con delle caratteristiche che sono diverse rispetto al passato. Infatti, nel momento in cui dei soggetti pubblici acquistano delle soluzioni di intelligenza artificiale per l’esercizio delle loro funzioni, queste mantengono intatta la loro consistenza esterna, ma è il contratto (di acquisto) dell’intelligenza artificiale che ne struttura adesso l’esercizio. Potranno quindi aversi delle funzioni ancora autoritative con riferimento al regime giuridico (esternamente) rilevante, ma che hanno però alla loro base uno strumento che presenta le (diverse) caratteristiche negoziali. La persistenza dello Stato e delle sue funzioni al cospetto dell’erompere della digitalizzazione[106], quindi, conosce un ulteriore elemento di frontiera, che schiude problematiche ulteriori.

Si è visto infatti che, quantomeno a certe condizioni, e nella presenza di taluni elementi caratterizzanti (tra cui, in primo luogo, la definizione di “sistema ad alto rischio”), i contratti pubblici di intelligenza artificiale soggiacciono a delle precise regole (pubbliche) e sono sottoposti a degli obblighi regolatori. La rilevanza sistemica della regolazione trova dunque un ulteriore momento di espansione[107], in una dimensione peculiare che vede il contratto come strumento di regola(menta)zione dell’esercizio delle funzioni pubbliche, ma che può (esso stesso) essere, al contempo, oggetto di regolazione. Vi è quindi una intersezione inedita tra contratto e regolazione, aperta peraltro a momenti necessari di coordinamento[108]. La regolazione dell’intelligenza artificiale non assume infatti una dimensione unitaria, ma soggiace anche a discipline settoriali diverse, come quella in materia di dati o l’altra sulla cybersecurity[109].

Si complicano, quindi, i meccanismi di composizione degli interessi, adesso inseriti all’interno di una operazione amministrativa[110] che è maggiormente problematica in quanto sconta anche le necessità del coordinamento tra livelli ed obiettivi diversi (anche della regolazione). Per conseguenza, si complicano pure i profili di tutela, condizionati dall’intervento di diverse autorità (indipendenti), e rispetto ai quali non è detto che quella costitutiva offerta dal giudice amministrativo, peraltro apparentemente refrattaria nel confrontarsi direttamente con questioni concernenti i diritti di proprietà intellettuale[111], possa costituire un momento definitivo di “chiusura”.

Ancora, se il contratto (pubblico) finisce con il costituire l’elemento su cui si fonda l’esercizio delle funzioni amministrative, se ne dovranno forse riconsiderare le coordinate, sia teoriche che operative.

Restituendo al momento negoziale la caratteristica di strutturazione dell’interesse pubblico, prima di tutto, ma anche considerando la proiezione e la persistenza di questo anche nell’ambito della fase esecutiva[112], circostanza che, del resto, per il caso dell’intelligenza artificiale ha il riscontro di precisi riferimenti nel diritto positivo.

Quest’ultima prospettiva suggerisce peraltro di tornare a riflettere sul rapporto tra politica e amministrazione, il che, per l’attuale assetto delle competenze, si condensa soprattutto nelle relazioni esistenti tra gli organi politici e l’attività della dirigenza pubblica[113]. L’introdursi dell’intelligenza artificiale nell’esercizio delle funzioni amministrative accresce le criticità in tale rapporto insite[114], specie con riferimento alle effettive possibilità per la funzione di indirizzo politico di realmente incidere sull’attività di gestione e, per converso, sull’essere quella di gestione, nel suo complesso considerata, attività fondamentalmente politica. Per questo, come peraltro la governance europea dell’intelligenza artificiale sembra nitidamente fare emergere, occorre ricostruire più saldi elementi di coordinamento, anche organizzativo, tra politica e amministrazione.

Ma il proiettare l’intelligenza artificiale all’interno delle funzioni dello Stato impone anche la necessità di riconsiderare impostazioni tradizionali, a partire dalla nozione di discrezionalità che adesso si ritrova sempre più in stretta connessione con quella di risultato. Se il regime esterno delle funzioni pubbliche rimane intatto, il contratto e la sua logica possono mutarne la consistenza proprio a partire dal condizionamento finale dell’assetto degli interessi. E bisogna per ciò adoperarsi affinché, anche riaggiornando strumenti e concetti sin qui utilizzati, la forza dei poteri privati, e i loro interessi, non intacchino l’interesse pubblico (comune) che pervade l’esercizio delle funzioni pubbliche[115].

  1. 1 Il presente contributo è stato prodotto nell’ambito del progetto di ricerca “Il nuovo diritto tra robotica e algoritmi” (linea PIACERI 2024/2026 UNICT).
  2. Cfr. E.L. Rissland, Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning, in The Yale Law Journal, 1990, pp. 1957 ss., dove anche per riferimenti ulteriori. Sul tema vanno peraltro segnalati, in lingua italiana, gli studi pioneristici di V. Frosini, Cibernetica, diritto e società, Edizioni di Comunità, Milano, 1968, pp. 93 ss. e M.G. Losano, Giuscibernetica: macchine e modelli cibernetici nel diritto, Einaudi, Torino, 1969, pp. 156 ss. Ma poi si veda anche G. Sartor, Le applicazioni giuridiche dell’intelligenza artificiale, Mulino, Bologna, 1990. Con riguardo al problema dell’automazione amministrativa, restando agli studi meno recenti e sempre nell’ambito della letteratura giuridica italiana, si veda la posizione di chiusura rispetto all’utilizzazione di algoritmi diversi da quelli (meramente) condizionali nel processo decisionale di A. Masucci, L’atto amministrativo informatico, Jovene, Napoli, 1993, pp. 19 ss., pp. 47 ss., e invece quella possibilista di U. Fantigrossi, Automazione e pubblica amministrazione: profili giuridici, Mulino, Bologna, 1993, pp. 81 ss., sia pure in entrambi senza particolari approfondimenti relativi alla nozione (presupposta) di intelligenza artificiale.
  3. H. Surden, Artificial Intelligence and Law: An Overview, in Georgia State University Law Review, 2019, pp. 1307 ss.
  4. Per un’analisi dei diversi approcci regolatori possibili si veda T.E. Frosini, L’orizzonte giuridico dell’intelligenza artificiale, in Dir. inf., 2022, pp. 5 ss.
  5. Su di che, per una riconsiderazione critica, B. Sordi, Diritto pubblico e diritto privato: una genealogia storica, Mulino, Bologna, 2020.
  6. Normazione che può peraltro articolarsi su più livelli, come evidenzia A. Simoncini, Verso la regolamentazione della intelligenza artificiale. Dimensione e governo, in BioLawJournal, 2019, pp. 411 ss.
  7. Ma si può anche pensare all’intelligenza artificiale come strumento di regolazione, su di che, per le criticità e le dovute precisazioni, cfr. di recente N. Rangone, Regolare con intelligenza artificiale?, in Dir. amm., 2023, pp. 749 ss.
  8. Per cui, tra gli altri, A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 2019, pp. 63 ss. e, nell’ambito della letteratura straniera, R. Calo, D.K. Citron, The Automated Administrative State: A Crisis of Legitimacy, in Emory Law Journal, 2021, pp. 797 ss.
  9. Di recente può vedersi il contributo di G. Finocchiaro, Intelligenza artificiale. Quali regole?, Mulino, Bologna, 2024.
  10. Che va però correttamente intesa non già solo come accesso al dato algoritmico, ma piuttosto come diritto alla comprensione (e quindi diritto alla spiegazione) dei suoi meccanismi di funzionamento, cfr. G. Malgieri, G. Comandè, Why a Right to Legibility of Automated Decision Making Exists in the General Data Protection Regulation, in International Data Privacy Law, 2017, pp. 43 ss.. Con un’analisi che muove sempre dal GDPR, anche M.E. Kaminsky, The Right to Explanation, Explained, in Berkeley Technology Law Journal, 2019, pp. 189 ss.
  11. Con la ricostruzione delle tutele che si basa sulla disciplina del GDPR, cfr. M.E. Kaminsky, G. Malgieri, Algorithmic Impact Assesments Under the GDPR: Producing Multi-Layered Explanations, in International Data Privacy Law, 2021, pp. 125 ss. e pp. 129 ss.
  12. Per l’inquadramento delle questioni, in veste monografica, G. Avanzini, Decisioni amministrative e algoritmi informatici: predeterminazione, analisi predittiva e nuove forme di intellegibilità, Editoriale Scientifica, Napoli, 2019. Ma si veda anche L. Torchia, Lo Stato digitale, Mulino, Bologna, 2023, in particolare pp. 135 ss. per la discussione relativa alle decisioni automatizzate. Ma il tema è oggetto di vivace interesse in letteratura, con il fiorire di studi recenti tra cui, senza pretese di completezza, quelli di G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Cedam, Padova, 2023; A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, Editoriale Scientifica, Napoli, 2023; L. Previti, La decisione amministrativa robotica, Editoriale Scientifica, Napoli, 2022; G. Pesce, Funzione amministrativa, intelligenza artificiale e blockchain, Editoriale Scientifica, Napoli, 2021.
  13. Tra queste quelle di D.U. Galetta, Il procedimento amministrativo come strumento di organizzazione e le conseguenze legate all’uso delle ICT, in Ist. fed., 2023, pp. 289 ss.; M.C. Cavallaro, Imputazione e responsabilità delle decisioni automatizzate, European Review of Digital Administration & Law, 2020, pp. 69 ss.; S. Civitarese Matteucci, «Umano troppo umano». Decisioni amministrative automatizzate e principio di legalità, in Dir. pubbl., 2019, pp. 5 ss.
  14. Per una rassegna ragionata e ricca di spunti sull’argomento, R. Ferrara, Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale, in Dir. amm., 2019, pp. 773 ss.
  15. Quali pronunce indicative del mutamento dei paradigmi giurisprudenziali in argomento, possono considerarsi, anche per la progressiva articolazione e specificazione degli argomenti a sostegno, Cons. St., Sez. VI, 8 aprile 2019, n. 2270; Cons. St., Sez. VI, 13 dicembre 2019, n. 8472; Cons. St., 4 febbraio 2020, n. 881.
  16. Per una prospettiva di sistema R. Cavallo Perin, Ragionando come se la digitalizzazione fosse data, in Dir amm., 2020, pp. 305 ss.
  17. N. Paolantonio, Il potere discrezionale della pubblica automazione. Sconcerto e stilemi. (Sul controllo giudiziario delle “decisioni algoritmiche”), in Dir. amm., 2021, pp. 813 ss.
  18. E. Carloni, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, in Dir. amm. 2020, pp. 273 ss.
  19. Rispetto alla problematica d’interesse la questione sarà affrontata nel quinto paragrafo di questo scritto.
  20. Per le differenze, e le connesse implicazioni teoriche, G. Zaccaria, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, in Ars Interpretandi, 2021, pp. 29 ss.
  21. Circostanza che si determina al cospetto della mole di dati processati, il che rende (tendenzialmente) non prefigurabile un esito che pure deriva dallo sviluppo di una logica deduttiva che ha alla sua base una (concatenazione di) scelta(e) proprie all’uomo, cfr. H. Surden, Artificial Intelligence and Law: An Overview, cit., pp. 1316 ss. L’elemento computazionale, quindi, rappresenta in questi casi il tratto differenziale dell’intelligenza artificiale rispetto ai “sistemi esperti” tradizionali, su cui già R.E. Susskind, Expert Systems in Law: A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning, in Modern Law Review, 1986, pp. 168 ss. Per un’applicazione del modello nella letteratura giuridica italiana si veda L. Viola, Overruling e giustizia predittiva, Giuffrè, Milano, 2020, pp. 109 ss., pp. 161 ss. Ma per una critica argomentata rispetto all’utilizzazione di questa struttura logica dell’intelligenza artificiale, tra l’altro con diffusi dubbi in ordine alla possibilità di sopperire alla mancanza di univocità interpretativa mediante semplificazioni derivanti da soluzioni di tipo tecnico-informatico, anche in ragione delle difficoltà insite nel “riallineare” questo linguaggio a quello comune, cfr. ancora G. Zaccaria, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, pp. 41 ss., p. 42.
  22. Per l’applicazione dei sistemi di machine learning in ambito giuridico cfr. D. Lehr, P. Ohm, Playing with the Data: What Legal Scholars Should Learn About Machine Learning, in U.C. Davis Law Review, 2017, pp. 653 ss., nonché, tra la moltitudine di riflessioni in argomento, W. Barfield, U. Pagallo, Advanced Introduction to Law and Artificial Intelligence, Elgar Publishing, Cheltenham (UK), 2020, pp. 14 ss.
  23. Si allude al fenomeno della c.d. black box, sul quale non ci si può in questa sede ulteriormente intrattenere, ma che può certo essere oggetto di valutazioni “evolutive”, anche in ragione degli obiettivi concreti che si intendono riferiti alle vicende dell’applicazione giuridica. Per una discussione delle problematiche al riguardo rilevanti si veda B. Brozek, M. Furman, M. Jakubiec, The Black Box Problem Revisited. Real and Imaginary Challenges for Automated Legal Decision Making, in Artificial Intelligence and Law, 2023, pp. 1-14.
  24. Per l’impostazione, anche in termini generali, del problema, cfr. A.G. Orofino, G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giur. it, 2020, pp. 1738 ss., ma in particolare pp. 1741 ss., dove pure per ulteriori riferimenti.
  25. Per la duplice prospettiva indicata nel testo, e cioè per la considerazione dell’intelligenza artificiale come strumento ma anche quale oggetto della contrattualistica pubblica, cfr. nella dottrina francese I. Hasquenoph, L’intelligence artificielle et la commande publique, in Actualite Juridique – Droit Administratif, 2024, pp. 76 ss.
  26. Cfr. per tutti G.M. Racca, Trasformazioni e innovazioni digitali nella riforma dei contratti pubblici, in Dir. amm., 2023, pp. 723 ss.; D.U. Galetta, Digitalizzazione, Intelligenza artificiale e Pubbliche amministrazioni: il nuovo Codice dei contratti pubblici e le sfide che ci attendono, in Federalismi.it, 2023, pp. 1 ss.
  27. Si veda per esempio A. Corrado, I nuovi contratti pubblici, intelligenza artificiale e blockchain: le sfide del prossimo futuro, in Federalismi.it, 2023, pp. 128 ss., dove anche per l’analisi di alcune recenti applicazioni concrete, ivi, pp. 137 ss.
  28. In questa prospettiva G. Carullo, Piattaforme digitali e interconnessione operativa nel nuovo codice dei contratti pubblici, in Federalismi.it, 2023, pp. 110 ss., p. 123. Ma si veda anche G.M. Racca, Trasformazioni e innovazioni digitali nella riforma dei contratti pubblici, cit., pp. 742 ss.
  29. Nella relazione illustrativa al Codice dei contratti pubblici del 7 dicembre 2022, si legge testualmente che «si tratta di una disciplina di grande novità per l’ordinamento italiano perché, per la prima volta, sebbene nel solo settore dei contratti pubblici, sono individuati a livello normativo i principi da rispettare in caso di utilizzo di procedure automatizzate. L’introduzione della disposizione si è resa necessaria in ragione del criterio di delega di cui alla lettera t) che ammette, per le stazioni appaltanti, la possibilità di ricorrere anche ad automatismi nella valutazione delle offerte. Si tratta di una disposizione volta a disciplinare il futuro (prossimo), in quanto, allo stato, nell’ambito delle procedure di gara sono utilizzati per lo più algoritmi non di apprendimento, utilizzati per il confronto automatico di alcuni parametri caratterizzanti le offerte e conoscibili. Tuttavia, non si può escludere che, a breve, la disponibilità di grandi quantità di dati possa consentire l’addestramento di algoritmi di apprendimento da applicare alle procedure di gara più complesse; da qui l’utilità dell’inserimento di una disciplina che richiami i principi destinati a governare tale utilizzo, anche alla luce dei principi affermati sia in ambito europeo che dalla giurisprudenza amministrativa» (ivi, p. 49).
  30. G. Gallone, Blockchain, procedimenti amministrativi e prevenzione della corruzione, in Dir. econ., 2019, pp. 187 ss., in particolare pp. 204 ss. Per un inquadramento generale, si veda M. Maugeri, Smart contracts e disciplina dei contratti, Mulino, Bologna, 2021.
  31. Cfr. art. 30, co. 2, d.lgs. n. 36/2023.
  32. Cfr. supra al paragrafo 1.
  33. Cfr. art. 30, co. 3, d.lgs. n. 36/2023.
  34. Cfr. infra, in particolare al paragrafo 5, ma anche al paragrafo 6.
  35. Cfr. art. 30, co. 2, d.lgs. n. 36/2023.
  36. Per la precisazione di questo argomento cfr. sempre infra, ai paragrafi 4, 5 e 6.
  37. Cfr. la disciplina presente all’art. 30, co. 2, e all’art 35, co. 4 e 5, del d.lgs. n. 36/2023.
  38. Se ne può vedere un’analisi critica in F. Bravo, Trasparenza del codice sorgente e decisioni automatizzate, in Dir. inf., 2020, pp. 693 ss., pp. 714 ss. In una prospettiva diversa, invece, le più recenti considerazioni di S. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Dir. amm., 2023, pp. 515 ss., pp. 529 ss.
  39. Cfr. art. 30, co. 5, d.lgs. n. 36/2023.
  40. C. Coglianese, E. Lampmann, Contracting for Algorithmic Accountability, in Administrative Law Review, 2021, pp. 175 ss., dove, nel considerare i rischi comunque propri all’uso dell’intelligenza artificiale, si contrappone all’idea del divieto e/o della limitazione del suo uso la proposta per cui «at least as a starting point, that government agencies leverage the procurement process more effectively to reassure the public that government is using algorithmic tools responsibly», ivi, p. 179.
  41. Cfr. D.K. Mulligan, K.A. Bamberger, Procurement as Policy: Administrative Process for Machine Learning, in Berkeley Technology Law Journal, 2019, pp. 784 ss., pp. 808 ss., ma anche D.S. Rubenstein, Acquiring Ethical AI, in Florida Law Review, 2021, pp. 749 ss., in particolare, pp. 797 ss.
  42. E quindi meccanismi procedurali idonei a consentire la verifica della conformità a determinati standard (tecnici), cfr. C. Coglianese, E. Lampmann, Contracting for Algorithmic Accountability, cit., pp. 192 ss., ovvero l’emersione (procedurale) di specifiche scelte, anche in ragione della loro coerenza con i bisogni effettivi della collettività, su di che appunto D.K. Mulligan, K.A. Bamberger, Procurement as Policy: Administrative Process for Machine Learning, cit., pp. 842 ss., pp. 856 ss.
  43. Si veda sul punto D.S. Rubenstein, Acquiring Ethical AI, cit., pp. 813 ss.
  44. C. Coglianese, E. Lampmann, Contracting for Algorithmic Accountability, cit., pp. 184 ss.; D.S. Rubenstein, Acquiring Ethical AI, cit., pp. 768 ss.
  45. D.K. Mulligan, K.A. Bamberger, Procurement as Policy: Administrative Process for Machine Learning, cit., pp. 794 ss.; D.S. Rubenstein, Acquiring Ethical AI, cit., pp. 806 ss.
  46. D.K. Mulligan, K.A. Bamberger, Procurement as Policy: Administrative Process for Machine Learning, cit., pp. 829 ss.
  47. I. Hasquenoph, L’intelligence artificielle et la commande publique, cit., p. 80.
  48. I. Hasquenoph, L’intelligence artificielle et la commande publique, cit., p. 81.
  49. Cfr. ancora I. Hasquenoph, L’intelligence artificielle et la commande publique, cit., dove precisamente si afferma che «la commande publique peut être mobilisée pour imposer aux entreprises privées des exigences spécifiques destinées à garantir le développement d’une IA éthique, responsable, digne de confiance», ivi, p. 78.
  50. I. Hasquenoph, L’intelligence artificielle et la commande publique, cit., pp. 78-80.
  51. Tra queste, quelle del World Economic Forum, Procurement in a Box: AI Procurement Guidelines (2020), disponibili presso https://www3.weforum.org/docs/WEF_AI_Procurement_in_a_Box_AI_Government_Procurement_Guidelines_2020.pdf, e del U.K. Office for Artificial Intelligence, Guidelines for AI Procurement (2020), consultabili presso https://www.gov.uk/government/publications/guidelines-for-ai-procurement.
  52. Cfr. per esempio l’allegato alla comunicazione della Commissione Promuovere un approccio europeo all’intelligenza artificiale del 21 aprile 2021 (COM 2021/205), dove si legge che «gli appalti pubblici sono fondamentali per l’adozione dell’IA da parte del settore pubblico e possono contribuire a stimolare la domanda e l’offerta di tecnologie di IA affidabili e sicure in Europa», ivi, 52.
  53. Nella dottrina civilistica si parla di “diritto privato regolatorio”, che è nozione qui utile anche perché idonea a recepire all’interno della regolamentazione pattizia la disciplina derivante dall’attività delle autorità di settore. Sul punto, per tutti, A. Zoppini, Diritto privato vs diritto amministrativo (ovvero alla ricerca dei confini tra Stato e mercato), in Riv. dir. civ., 2013, pp. 515 ss., pp. 526 ss., dove anche per riferimenti ulteriori.
  54. Sui rischi connessi all’espansione dei poteri privati (anche) rispetto all’attività di regolazione cfr. E. Bruti Liberati, Poteri privati e nuova regolazione pubblica, in Dir. pubbl., 2023, pp. 285 ss., dove anche per ulteriori riferimenti.
  55. Per la descrizione di criticità in larga misura coincidenti a quelle nel testo indicate, cfr. A. Sanchez-Graells, Digital Technologies and Public Procurement. Gatekeeping and Experimentation in Digital Public Governance, Oxford University Press, Oxford, 2024, pp. 49 ss.
  56. Ci si riferisce al Regolamento del Parlamento europeo e del Consiglio europeo che stabilisce regole armonizzate sull’intelligenza artificiale (d’ora in poi nel testo Regolamento europeo sull’intelligenza artificiale) approvato in via definitiva dal Parlamento europeo in data 17 aprile 2024 e dal Consiglio europeo in data 14 maggio 2024, per la cui analisi è stato considerato il documento in lingua italiana consultabile presso https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/it/pdf.
  57. Sulle questioni definitorie di questo documento normativo cfr. già S. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, cit., pp. 515 ss.
  58. Questa è la definizione, testualmente riprodotta, che si ritrova all’art. 3 (1) del Regolamento europeo sull’intelligenza artificiale.
  59. Cfr. l’art. 6, co. 1, lett. a) e b) del Regolamento europeo sull’intelligenza artificiale.
  60. Cfr., l’allegato III, co. 1, del Regolamento europeo sull’intelligenza artificiale.
  61. Cfr. l’allegato III, co. 5, del Regolamento europeo sull’intelligenza artificiale.
  62. Cfr. l’allegato III, co. 7, del Regolamento europeo sull’intelligenza artificiale.
  63. Precisamente, per l’allegato III, co. 8, del Regolamento europeo sull’intelligenza artificiale quando i sistemi di intelligenza artificiale sono «destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie».
  64. Cfr. al riguardo l’art. 51, co. 2, del Regolamento europeo sull’intelligenza artificiale, dove si legge che «si presume che un modello di IA per finalità generali abbia capacità di impatto elevato a norma del paragrafo 1, lettera a), quando la quantità cumulativa di calcolo utilizzata per il suo addestramento misurata in operazioni in virgola mobile è superiore a 1025».
  65. Cfr. art. 96 del Regolamento europeo sull’intelligenza artificiale.
  66. Cfr. art. 95 del Regolamento europeo sull’intelligenza artificiale.
  67. Cfr. ancora A. Sanchez-Graells, Digital Technologies and Public Procurement. Gatekeeping and Experimentation in Digital Public Governance, pp. 103 ss., pp. 113 ss.
  68. Cfr. gli articoli 8, 9, 17 del Regolamento europeo sull’intelligenza artificiale.
  69. Cfr. l’art. 15 del Regolamento europeo sull’intelligenza artificiale.
  70. Cfr. l’art. 20 del Regolamento europeo sull’intelligenza artificiale.
  71. Cfr. l’art. 10 del Regolamento europeo sull’intelligenza artificiale.
  72. Cfr. l’art. 13 del Regolamento europeo sull’intelligenza artificiale.
  73. Cfr. pure l’art. 20 del Regolamento europeo sull’intelligenza artificiale.
  74. Cfr. gli articoli 14 e 26 del Regolamento europeo sull’intelligenza artificiale.
  75. L’affermazione di cui al testo, e secondo quanto in precedenza già affermato in questo stesso paragrafo, va precisata nel senso che: (i) l’applicazione delle regole riferibili ai sistemi ad «alto rischio» dipenderà (a) dalla identificazione del concetto di sistema ad alto rischio nelle linee guida che saranno emanate dalla Commissione (art. 96) e (b) dal successivo esercizio dell’attività di regolazione al riguardo posta in essere sulla scorta del Regolamento europeo sull’intelligenza artificiale; (ii) la possibilità di uniformare le regole rilevanti per i sistemi ad «alto rischio» e i sistemi «non ad alto rischio» dipenderà dal contenuto dei codici di condotta posti in essere ai sensi dell’articolo 95 del Regolamento europeo sull’intelligenza artificiale.
  76. Cfr. l’art. 27 del Regolamento europeo sull’intelligenza artificiale.
  77. In questa direzione il contributo di I. Hasquenoph, L’intelligence artificielle et la commande publique, cit., p. 79.
  78. Cfr. Commissione Europea, Public Buyers Community, Proposta di clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version) – settembre 2023 – consultabile nella versione in lingua italiana presso https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai
  79. Cfr. Commissione Europea, Public Buyers Community, Proposta di clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (versione semplificata) – settembre 2023 – consultabile nella versione in lingua italiana presso https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai
  80. Cfr. l’art. 6 delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  81. Cfr. in particolare la sezione E delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  82. Come si desume dalla formulazione in bianco dell’allegato E delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  83. Cfr. l’art. 7 delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  84. Cfr. l’art. 3 delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  85. Come si desume dalla formulazione in bianco dell’allegato F delle clausole tipo per l’acquisto di intelligenza artificiale da parte delle organizzazioni pubbliche (high risk version).
  86. G. Gitti, Le clausole d’uso come fonti del diritto, in Riv. dir. civ., 2003, pp. 115 ss., ma anche F. Battelli, I contratti-tipo. Modelli negoziali per la regolazione del mercato: natura, effetti e limiti, Jovene, Napoli, 2017, in particolare pp. 55 ss., pp. 496 ss.
  87. Potendosi peraltro ritenere che, nel contesto dell’esercizio dell’attività delle autorità pubbliche, tanto più se delle autorità indipendenti, anche l’attività provvedimentale può assumere un contenuto (sostanzialmente) normativo, come avrei provato ad argomentare in G.F. Licata, Provvedimenti antitrust a contenuto normativo, Giuffrè Milano, 2013, pp. 73 ss., pp. 147 ss.
  88. Sulla rilevanza sistemica dell’attività di regolazione cfr. L. Giani, Attività amministrativa e regolazione di sistema, Giappichelli, Torino, pp. 152 ss., 280 ss., con riferimento (anche) alla proiezione normativa della stessa.
  89. Cfr. ancora L. Giani, Attività amministrativa e regolazione di sistema, cit., pp. 329 ss., pp. 346 ss.
  90. B. Mattarella, La centralizzazione delle stazioni appaltanti, in Giorn. dir. amm., 2016, pp. 613 ss.
  91. M. Macchia, La qualificazione delle stazioni appaltanti, in Giorn. dir. amm., 2017, pp. 50 ss.
  92. Cfr. in generale M. Falcone, Ripensare il potere conoscitivo tra algoritmi e big data, Editoriale scientifica, Napoli, 2023.
  93. Cfr. l’art. 64 del Regolamento europeo sull’intelligenza artificiale.
  94. Cfr. gli articoli 65 e 66 del Regolamento europeo sull’intelligenza artificiale.
  95. Cfr. l’art. 67 del Regolamento europeo sull’intelligenza artificiale.
  96. Cfr. gli articoli 68 e 69 del Regolamento europeo sull’intelligenza artificiale.
  97. Cfr. A. Sanchez-Graells, Resh(AI)ping Good Administration: Addressing the Mass Effects of Public Sector Digitalisation, in Laws, 2024, pp. 1 ss., pp. 9 ss., nonché, in termini sostanzialmente coincidenti, I.M. Delgado, Automation, Artificial Intelligence and Sound Administration. A Few Insights in the Light of the Spanish Legal System, in European Review of Digital Administration & Law, 2023, pp. 9 ss., pp. 28 ss.
  98. Cfr. al riguardo l’insieme delle disposizioni presenti nel libro I, titolo II, del d.lgs. n. 36/2023, articoli 19 ss.
  99. G. Carullo, Piattaforme digitali e interconnessione operativa nel nuovo codice dei contratti pubblici, cit., pp. 118 ss., pp. 122 ss.
  100. G.M. Racca, La modellazione digitale per l’integrità, l’efficienza e l’innovazione nei contratti pubblici, in Ist. fed., 2019, pp. 739 ss.
  101. Cfr. art. 23, co. 5, d.lgs. n. 36/2023.
  102. Cfr. art. 30, co. 4, d.lgs. n. 36/2023.
  103. F. Merloni, Organizzazione amministrativa e garanzie dell’imparzialità. Funzioni amministrative e funzionari alla luce del principio di distinzione tra politica e amministrazione, in Dir. pubbl., 2009, pp. 57 ss., pp. 60 ss.
  104. Sicché si avrebbe la possibilità di identificare una duplice rilevanza per il momento organizzativo, dove la prima (quella diretta al “corretto” funzionamento dei sistemi di intelligenza artificiale) sarebbe strutturalmente servente all’esercizio delle funzioni pubbliche, e quindi (anche) alla loro organizzazione “classica”.
  105. Per le relative implicazioni sistematiche cfr. A. Massera, Lo Stato che contratta e che si accorda. Vicende della negoziazione con le PP.AA., tra concorrenza per il mercato e collaborazione con il potere, Pisa University Press, Pisa, 2012, pp. 35 ss., pp. 267 ss.
  106. L. Casini, Lo Stato (im)mortale. I pubblici poteri tra globalizzazione ed era digitale, Mondadori, Milano, pp. 47 ss., pp. 85 ss.
  107. L. Giani, Attività amministrativa e regolazione di sistema, cit., pp. 157 ss., passim.
  108. F. Cortese, Il coordinamento amministrativo. Dinamiche e interpretazioni, Franco Angeli, Milano, 2012, pp. 107 ss., pp. 153 ss., anche per le logiche di sistema che in tale ambito si sviluppano al di là dell’ordinamento giuridico interno.
  109. Per i profili di diritto amministrativo S. Rossa, Cybersicurezza e pubblica amministrazione, Editoriale Scientifica, Napoli, 2023; E. Buoso, Potere amministrativo e sicurezza nazionale cibernetica, Giappichelli, Torino, 2023.
  110. Precisamente come fattispecie di un’attività amministrativa che si articola per meglio corrispondere alla complessità dei problemi, cfr. D. D’Orsogna, Contributo allo studio dell’operazione amministrativa, Editoriale Scientifica, Napoli, 2005, pp. 183 ss.
  111. Come esempio si veda Cons. St., Sez. V, 21 giugno 2022, n. 5119, dove si ritiene che rispetto alla violazione dei diritti di proprietà intellettuale non possa esservi nemmeno cognizione incidentale da parte del giudice amministrativo (ivi, punti 13.3 ss.).
  112. Per questa rilevanza, F. Fracchia, W. Giulietti, Aspetti problematici dell’esecuzione nei contratti nel prisma della nuova giurisprudenza sull’accesso civico, in Dir. econ., 2020, pp. 203 ss., ma in particolare pp. 217 ss.
  113. Per l’impostazione dei problemi, e per ulteriori riferimenti, G. Gardini, L’imparzialità amministrativa tra indirizzo e gestione. Organizzazione e ruolo della dirigenza pubblica nell’amministrazione contemporanea, Giuffrè, Milano, 2003, pp. 127 ss., pp. 487 ss.
  114. Per la manifestazione di queste criticità L. Casini, Politica e amministrazione: «the Italian Style», in Riv. trim. dir. pubbl., 2019, pp. 13 ss., pp. 30 ss.
  115. Sfida che non può (più) ritenersi confinata a una dimensione territoriale circoscritta. Cfr. da ultimo A. Bradford, Digital Empires: The Global Battle to Regulate Technology, Oxford University Press, Oxford, 2023.