Partendo dalle questioni inerenti allo sviluppo della c.d. “robotica”, la relazione illustra come decidere con l’IA sia senz’altro un problema comune a tutte le aree della scienza, ma rispetto al quale è senz’altro la scienza giuridica a dovere fornire le giuste coordinate. In questa prospettiva, il Diritto sarà chiamato a «giustificare, a controllare e a guidare i percorsi» della messa in pratica dell’utilizzo dell’Intelligenza Artificiale come strumento per adottare decisioni che impattano sui vari ambiti della convivenza fra individui.


Decision-making with AI: a problem common to all domains of research
Starting from the issues related to the development of “robotics”, the paper explains how decision-making with AI poses problems across disciplines and law can provide the right coordinates to navigate the challenges. “Law” can be called upon to “justify, regulate, and direct the courses of action” when Artificial Intelligence is implemented as a decision-making instrument that impacts a variety of facets of individual coexistence.
Summary: 1. Note introduttive.- 2. Della progettazione e sviluppo degli Algoritmi di IA e della questione relativa alle competenze “interdisciplinari” necessarie.- 3. Della centralità del diritto come scienza, in questo complesso scenario.- 4. Riferimenti bibliografici essenziali.

1. Note introduttive[1]

Inizierò parlando di robotica. Non di diritto.

Finirò, tuttavia, col parlare di diritto e, in particolare, di diritto amministrativo, la mia specialità; e specializzazione come accademico.

Come è noto, la storia della robotica risale ai primi giorni dell’industrializzazione, quando macchine c.d. di automazione semplice sono state sviluppate per eseguire compiti di routine e ripetitivi e liberare, di conseguenza, l’essere umano dal peso della loro esecuzione.

Nei decenni successivi, gli ulteriori progressi nell’ingegneria di controllo e nell’informatica hanno permesso lo sviluppo di robot sempre più sofisticati ed in grado di eseguire una gamma via via più ampia di compiti.

Mi limito ad aggiungere qui oggi – alla presenza del Professor Riccardo Pietrabissa, Rettore dello IUSS di Pavia, ma anche Professore Ordinario di Bioingegneria Industriale – che , come è peraltro ben noto a chi si occupa di questi temi, la tecnologia robotica sta avanzando assai rapidamente, con l’integrazione di Intelligenza Artificiale (AI) e Machine Learning (ML), che consentono ai moderni robot di interagire in modo indipendente con il loro ambiente e di eseguire compiti via via più sofisticati e complessi.

A questo proposito, già nel 2018 un interessante (e assai citato articolo) pubblicato su Science Robotics, dal titolo «The grand challenges of Science Robotics»[2], sottolineava come ci siano almeno dieci grandi sfide che riguarderanno questa scienza negli anni a seguire, e che avranno un impatto importante sulla società, tutta, oltre che su molte aree del sapere e della scienza.

Ovviamente non c’è qui il tempo – né io ho le competenze necessarie – per potermi soffermare su ognuna di queste. In questo senso passerei necessariamente oltre le prime sfide evocate dal paper: sviluppare nuovi materiali, nuovi modi di produzione e schemi di progettazione per robot con capacità analoghe agli organismi biologici o che incorporino componenti biologici in strutture artificiali. Scoprire nuove tecnologie per potere generare e conservare energia e aumentare l’autonomia dei robot.

È, infatti, quando si arriva al passaggio di quell’articolo che fa riferimento alle necessità di specificare le abilità con cui i robot esplorano e si adattano agli ambienti in cui si muovono; o al problema di come trasferire agli agenti artificiali le competenze sociali con cui gli uomini interagiscono che la questione per me, come giurista, diventa veramente rilevante.

A questo punto, il problema diventa infatti come definire un sistema di principi che ci consenta di affrontare le questioni etiche connesse. Ma, anche e soprattutto, come definire un sistema di norme che consenta di affrontare, in modo adeguato, le questioni e le problematiche sollevate dall’innovazione tecnologica legata all’automazione attraverso l’uso di sistemi di Intelligenza Artificiale.

2. Della progettazione e sviluppo degli Algoritmi di IA e della questione relativa alle competenze “interdisciplinari” necessarie

Il problema per me – e lo dice lo stesso titolo del mio Keynote Speech – ha peraltro poco a che fare con le attività di mera esecuzione svolte (o che potranno essere svolte) in maniera automatizzata (o “robotizzata” che dir si voglia). Il problema è tutto concentrato sul destino delle “attività decisionali”, a fronte della loro automazione.

E quindi, in particolare, sulla questione dell’interazione fra automazione e sistemi di Intelligenza Artificiale basati sul Machine Learning o sul Deep Learning (o su quanto altro di meglio, e ancor più evoluto, potrà essere inventato frattanto).

Il problema è legato, da un lato, alle modalità di progettazione e sviluppo degli algoritmi di IA: che, come noto, sono sviluppati da informatici che posseggono l’expertise tecnico-informatica per farlo, ma non necessariamente il bagaglio di altre conoscenze tecniche che sarebbero di volta in volta necessarie.

Sicché, salvo che si sia in grado di mettere in piedi sempre una adeguata equipe di lavoro, tale da garantire la presenza di tutte le competenze necessarie, si rischia di sviluppare algoritmi che non tengono conto delle “specifiche tecniche” della materia in cui si va così ad incidere.

Pensiamo, ad esempio, ad un algoritmo di IA che auto-apprende e che sia destinato a gestire in maniera più efficiente le allocazioni dei dipendenti di una impresa privata, o di una pubblica amministrazione.

Se questo algoritmo è progettato (come è sovente avvenuto) di modo da non tenere in adeguato conto le dinamiche organizzative che studia la c.d. “economia dell’organizzazione”, oppure da non tenere in adeguato conto quei parametri normativi che delimitano il potere organizzativo dell’impresa (o – a maggior ragione – della pubblica amministrazione), il risultato sarà tutt’altro che ottimale. Di certo, non sarà migliore di quello prodotto dalla decisione di un Direttore del personale dotato di media “intelligenza naturale”.

Gli esempi si potrebbero ovviamente moltiplicare a piacimento.

E il problema è anche legato al tema dell’outsourcing: imprese e Pubbliche Amministrazioni difficilmente sviluppano/sono in grado di sviluppare gli algoritmi al loro interno, con loro proprie equipe. Si servono, perciò, di società esterne, specializzate nel fare questo; ma che non conoscono l’impresa, i suoi lavoratori etc. (per restare all’esempio prima fatto).

Ed ecco che emerge qui il secondo problema, ancora più rilevante: che è quello che concerne la qualità dei dati utilizzati per progettare ed allenare gli algoritmi di IA, quali che siano.

I data scientists ricorrono a questo proposito all’acronimo GIGO, che sta per «garbage in garbage out». Evidentemente, infatti, un algoritmo non può che riflettere la qualità dei dati su cui esso è costruito. E questo vale poi ovviamente, a cascata, per le ipotesi predittive che esso è in grado di produrre, se di Machine Learning.

Al netto dei possibili metodi di controllo della qualità dei dati, che possono essere implementati al loro interno, gli algoritmi di Machine Learning non sono infatti in alcun modo in grado di riconoscere la qualità intrinseca dei dati: considerano nelle loro previsioni solo i dati forniti ed utilizzano questi dati indipendente dal fatto che essi siano errati o corretti.

È essenziale, dunque, che i dati immessi siano corretti, adeguati e di alta qualità.

Il problema riguarda, poi, anche la gestione dei c.d. bias, contenuti nei dati con cui si progettano, allenano ed alimentano gli algoritmi.

Ovviamente, la qualità e gli eventuali bias dei dati utilizzati per addestrare i modelli di IA possono influenzare significativamente il processo decisionale!

Dati parziali o incompleti possono portare a conclusioni o previsioni errate.

Questo è un problema assai grave e che riguarda evidentemente tutte le aree della scienza! Così come lo sviluppo di “decision-making capabilities” collegate all’utilizzo di sistemi di Intelligenza Artificiale è, senza dubbio, un problema che riguarda tutte le aree della scienza. Sicché, i problemi connessi richiedono necessariamente l’integrazione di teorie e scienze diverse.

Ecco perché un centro di ricerca che si occupi/o si voglia occupare di approfondire queste questioni non potrà che essere interdisciplinare; e non potrà che mirare ad integrare le diverse scienze ed i diversi approcci in un percorso di studio e ricerca comune.

3. Della centralità del diritto come scienza, in questo complesso scenario

Da giurista (con una laurea però anche in Scienze Politiche), trovo tuttavia molto corretto che il centro di ricerca che presentiamo qui oggi si chiami (si chiamerà) «International Center on Law, Science and New Technologies».

Perché traslare i meccanismi decisionali e le “decision-making capabilities” dall’uomo alla “macchina” (il robot!) ha, al di là delle singole problematiche tecniche, delle profonde conseguenze sul piano sociale. E dunque sul diritto.

Poiché il diritto è proprio quella scienza che si occupa di studiare l’insieme di quelle regole (giuridiche) che sono destinate a garantire la pacifica convivenza sociale, disciplinando i rapporti fra i componenti della società, nonché fra la società ed i suoi componenti.

Per usare le parole di un famoso filosofo del diritto, il Prof. Francesco Viola, «Il diritto è l’arte della convivenza civile»[3].

In un saggio del 2015 che recava appunto questo titolo, «Il diritto come arte della convivenza civile» Viola sottolineava che «una conoscenza del diritto che non sia diretta a giustificare, a controllare e a guidare i percorsi della pratica diventa irrilevante nel mondo della complessità». E sottolineava come, di conseguenza, questa sia necessariamente «una sfida che la teoria giuridica deve raccogliere».

Non potrei essere più d’accordo, e la sua riflessione non potrebbe essere più adatta al contesto odierno, in cui il diritto è indubbiamente chiamato a «giustificare, a controllare e a guidare i percorsi» della messa in pratica dell’utilizzo dell’Intelligenza Artificiale come strumento per adottare decisioni che impattano sui vari ambiti della convivenza fra individui. Oltre che sui vari ambiti della scienza.

Ci sono, a questo proposito, due domande, in particolare, a cui il diritto deve oggi rispondere: la prima è quali caratteristiche debbano avere le decisioni che un sistema di Intelligenza Artificiale potrà assumere senza l’intervento dell’uomo.

La seconda, è come stabilire delle regole giuridiche che ci consentano di superare quell’equivoco tipico dei non giuristi (o, meglio, di tutti coloro che non apprezzano il diritto come scienza intesa a regolare la convivenza pacifica fra individui) e che consiste nell’immaginare che il corretto comportamento del singolo sia il solo principio generale a cui doversi orientare in questo specifico ambito (i fautori della c.d. self-regulation).

Come superare l’obiezione che le “norme giuridiche”, in quanto “norme”, avrebbero il solo effetto di “ingessare”, e dunque rallentare, i potenziali sviluppi legati all’uso di queste tecnologie?

Ed ecco che qui mi sposto totalmente (come avevo peraltro anticipato) dalla robotica al diritto.

E lo faccio partendo da una chiara affermazione: che l’uso dell’Intelligenza Artificiale come strumento di supporto all’attività decisionale è possibile solo e soltanto entro margini di gioco ben precisi, che debbono essere determinati dalla scienza giuridica.

Non è, cioè, di principi etici che abbiamo bisogno. Ma di norme giuridiche idonee.

«If men were angels, no government would be necessary»: così scriveva uno dei padri fondatori della Costituzione americana, nel nr. 51 dei «Federalist Papers», pubblicati fra il 1787 e il 1788[4].

La necessità del Diritto scaturisce cioè, necessariamente, dalla circostanza che noi essere umani siamo sempre e comunque “moralmente imperfetti”.

Ed altrettanto lo sono, dunque, i nostri processi decisionali. Che sono viziati ab origine da questa nostra imperfezione, la quale rischierebbe di essere traslata, tout court, all’interno di procedimenti decisionali “automatizzati”, oltretutto con una sorta di “effetto moltiplicatore”.

Ecco quale è il vero problema dei bias nelle decisioni automatizzate grazie all’IA: la moltiplicazione vertiginosa del numero di decisioni errate poiché basate su errori cognitivi, o di valutazione, o di giudizio incorporati nell’algoritmo.

Il punto centrale è poi – e con questo concludo – che quando ci troviamo di fronte a meccanismi decisionali posti in atto dallo Stato, dalle Pubbliche Amministrazioni, vi è ancora di più la assoluta, stringente necessità di predisporre strumenti a tutela della humanitas.

Strumenti che ci consentano di essere protetti rispetto all’implementazione di meccanismi decisionali “automatici” che – creati a loro volta da esseri umani – attuino, facendola accettare socialmente, la deresponsabilizzazione di scelte (magari affette da gravi bias) da parte dei loro fautori.

Il che risulterebbe certamente grave quando si tratta di “attori privati” (pensiamo alla selezione del personale nel settore privato); ma, ovviamente, lo sarebbe ancor più quando si tratta di decisioni di “attori pubblici”: le Istituzioni che ci governano!

Sicché – ed anche se non ho qui ovviamente il tempo di soffermarmici – ci tengo a ribadire che, come già ho detto in altre occasioni, accolgo con grande favore sia l’IA Act, Il regolamento UE in materia di Intelligenza Artificiale[5]. Sia, a maggior ragione, la Risoluzione dell’Assemblea generale delle Nazioni Unite dell’11 marzo 2024 sulla necessità di cogliere le opportunità di sistemi di intelligenza artificiale sicuri e affidabili per lo sviluppo sostenibile, che è sfociata nel progetto di “Convenzione quadro sull’intelligenza artificiale, i diritti dell’uomo, la democrazia e lo Stato di diritto” (e su cui rinvio all’interessantissimo articolo di Jacques Ziller, pubblicato da poco su CERIDAP)[6].

Tuttavia, quando siamo al cospetto di decisioni pubbliche e attività delle pubbliche amministrazioni, questi documenti che ho appena menzionato, da soli, non saranno certamente sufficienti.

Occorrerà promuovere adeguatamente quella che io chiamo la “cultura del diritto ad una buona amministrazione”. Un diritto ora sancito espressamente dall’art. 41 della Carta dei diritti dell’UE e che acquista ancora maggiore centralità in un contesto di decisioni potenzialmente “automatizzabili” grazie all’IA (e a tutto quello che verrà, in termini di potenzialità di sviluppo delle tecnologie connesse).

Un diritto una buona amministrazione che implica che ogni persona abbia diritto «a che le questioni che la riguardano siano trattate in modo imparziale ed equo ed entro un termine ragionevole».

Un diritto che vive all’interno di una dinamica procedimentale necessariamente orientata a favorire l’interazione fra cittadino e pubblica amministrazione nella definizione di quella che sarebbe la decisione migliore possibile: quale che sia lo strumento prescelto per adottarla.

Una decisione che dovrà essere adeguatamente trasparente (sia nel “cosa”, che nel “come”) ed interpretabile anche nei relativi meccanismi decisionali: mentre, come ben sappiamo, molti modelli attuali di IA, in particolare i modelli di Deep Learning, sono complessi ed opachi e rendono difficile ricostruire come vengono prese le decisioni.

In questa prospettiva, non è affatto escluso che si possa decidere con l’IA.

Ma si dovrà trattare di una decisione che, quantunque automatizzata, lo sia con garanzia di una adeguata istruttoria, un adeguato contraddittorio, un adeguato onere di motivazione della decisione assunta.

Sicché – e davvero concludo – ben venga un centro di ricerca che mette correttamente l’accento sul diritto (Law), oltre che sulla scienza e le nuove tecnologie.

Perché se è vero (come dice il titolo della mia relazione) che quello di «decidere con l’IA» è un problema comune a tutte le aree della scienza, è altrettanto vero, però, che solo il diritto ci potrà proteggere da tutte le possibili deviazioni: soprattutto da quelle deviazioni intese a, in fin dei conti, sottrarre il decisore a meccanismi di responsabilità che sono tanto complessi da predisporre, quanto chiaramente indispensabili.

Posto che, e lo sappiamo bene, men are not angels and angels do not exist, anyway[7]… .

4. Riferimenti bibliografici essenziali

Rodney Brooks, Demis Hassabis, Dennis Bray, Amnon Shashua, Is the brain a good model for machine intelligence?, in Nature, Vol. 482, 23 February 2012, pp. 462-463

Roberto Cavallo Perin, Diana-Urania Galetta (Eds), Il Diritto dell’Amministrazione Pubblica digitale, Giappichelli, Torino, 2020, pp. LVI-377

Diana-Urania Galetta, La Pubblica Amministrazione nell’era delle ICT: sportello digitale unico e Intelligenza Artificiale al servizio della trasparenza e dei cittadini?, in Ciberspazio e Diritto, 3, 2018, pp. 319-336

Diana-Urania Galetta, Juan Gustavo Corvalán, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 3, 2019, pp. 1-23

Diana-Urania Galetta, Public Administration in the Era of Database and Information Exchange Networks: Empowering Administrative Power or Just Better Serving the Citizens?, in European Public Law, Vol 25(2), 2019, pp. 171-182

Diana-Urania Galetta, Algoritmi, procedimento amministrativo e garanzie: brevi riflessioni, anche alla luce degli ultimi arresti giurisprudenziali in materia, in Scritti per Franco Gaetano Scoca, Editoriale Scientifica, Napoli, 2020, vol. III, pp. 2205-2220, e in Rivista Italiana di Diritto Pubblico Comunitario, 4, 2020, pp. 501-516

Diana-Urania Galetta, Derechos y garantías concretas respecto del uso por los poderes públicos de decisiones automatizadas e Inteligencia Artificial: la importancia de las garantías en el procedimiento administrativo, in L. Cotino Hueso, M. Bauzá Reilly (Eds), Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas, Aranzadi Thomson Reuters, Cizur Menor, 2022, pp. 181-203

Diana-Urania Galetta, Human-stupidity-in-the-loop? Riflessioni (di un giurista) sulle potenzialità e i rischi dell’Intelligenza Artificiale, in Federalismi.it, 5, 2023, pp. 1-10

Diana-Urania Galetta, Buona amministrazione, Intelligenza Artificiale e “servizio giustizia”: qualche riflessione a margine della lettura del volume di Beniamino Caravita, in A. Poggi, F. Fabrizzi, F. Savastano (Eds), Social Network, formazione del consenso, intelligenza artificiale. Itinerario di un percorso di ricerca di Beniamino Caravita, Sapienza University Press, Roma, 2023, pp. 95-102

Diana-Urania Galetta, Digitalizzazione, Intelligenza artificiale e Pubbliche Amministrazioni: il nuovo Codice dei contratti pubblici e le sfide che ci attendono, in Federalismi.it, 12, 2023, pp. 1-14

Diana-Urania Galetta, La Pubblica Amministrazione oggi, fra intelligenza artificiale e intelligenza umana, in J.B. Auby, G. De Minico, G. Orsoni (Eds), L’amministrazione digitale: quotidiana efficienza e intelligenza delle scelte. Atti del Convegno 9-10 maggio 2022, Federico II, Napoli, serie CERIDAP, 2023, (e-book open access diamond), pp. 121-129

Diana-Urania Galetta, Digital Transition of Public Administration in Italy and the Right to a Good Administration: Problems and Prospects also in the Perspective of the Implementation of Italy’s Recovery and Resilience Plan, in K. Gromek (Ed), Public Law in a Troubled Era, Kluwer Law International, The Netherlands, 2023, pp. 431-453; e in European Review of Digital Administration & Law (ERDAL), 1, 2022, pp. 57-72

Diana-Urania Galetta, Il procedimento amministrativo come strumento di organizzazione e le conseguenze legate all’uso delle ICT, in Istituzioni del Federalismo, 2, 2023, pp. 289-297

Diana-Urania Galetta, Herwig C.H. Hofmann, Evolving AI-based Automation – The Continuing Relevance of Good Administration, in European Law Review, 6, 2023, pp. 617-635

Gilles J. Guglielmi, The Contentious Issues of Governance by Algorithms, in Indiana Journal of Global Legal Studies, Vol. 30 /1 (Winter 2023), pp. 97-104

Nadia Magnenat Thalmann, Social Robots: Their History and What They Can Do for Us, in H. Werthner, E.Prem, E. Lee, C. Ghezzi (eds.), Perspectives on Digital Humanism, Springer, 2022, pp. 9-18

Henrik Palmer Olsen, Jacob Livingston Slosser, Thomas Troels Hildebrandt, What’s in the Box? The Legal Requirement to Explain Computationally Aided Decision-Making in Public Administration, University of Copenhagen Faculty of Law Legal Studies Research Paper Series, paper no. 2020-97, pp. 1-24

Rashida Richardson, Jason Schultz, and Kate Crawford, Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice, in New York University Law Review Online, 2019, pp. 192-234

Stuart Russell, Artificial Intelligence and the Problem of Control, in H. Werthner, E.Prem, E. Lee, C. Ghezzi (eds.), Perspectives on Digital Humanism, Springer, 2022, pp. 19-28

Alan M. Turing, Computing Machinery and Intelligence, in Mind, vol. 49, 1950, pp. 433-460

Francesco Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 1, 2015, pp. 57-74

Guang-Zhong Yang, Jim Bellingham, Pierre E. Dupont e.a., The grand challenges of Science Robotics, in Science Robotics, 31 January 2018, pp. 1-14

  1. Il presente contributo è la versione scritta della relazione presentata dall’A., come Keynote speaker, in occasione della giornata organizzata presso lo IUSS di Pavia per la inaugurazione del “International Center on Law, Science and New Technologies”, lo scorso 9 maggio 2024. Per questa ragione, ed anche al fine di poterlo pubblicare rapidamente, non è stato sottoposto a referaggio esterno, ma unicamente ad una procedura di revisione interna da parte del Comitato editoriale di CERIDAP.
  2. G.Z. Yang, J. Bellingham, P.E. Dupont, e.a., The grand challenges of Science Robotics, in Science Robotics, 31 January 2018, pp. 1-14.
  3. F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 1, 2015.
  4. Federalist No. 51, The Structure of the Government Must Furnish the Proper Checks and Balances Between the Different Departments, From the New York Packet, Friday, February 8, 1788, at https://guides.loc.gov/federalist-papers/text-51-60.
  5. Che, nella versione italiana (ancora soggetta a lievi revisioni linguistiche), si può leggere anche in https://documenti.camera.it/leg19/dossier/pdf/AT026.pdf.
  6. V., anche per i relativi riferimenti, J. Ziller, The Council of Europe Framework Convention on Artificial Intelligence vs. the EU Regulation: two quite different legal instruments, in CERIDAP, 2, 2024.
  7. V. il riferimento di cui alla precedente nota nr. 4.

Diana-Urania Galetta

Full Professor of Administrative Law at the University of Milan and Editor in Chief of CERIDAP