La frontiera dell’IO (Intelligenza Organoide)

Tags:

La frontiera dell’IO (Intelligenza Organoide)

DOI: 10.13130/2723-9195/2024-4-10
Tags:

Il campo dell’intelligenza artificiale (IA) e quello emergente dell’intelligenza organoide (IO) rappresentano due delle frontiere più avanzate e promettenti della scienza e della tecnologia moderna. L’IA, nata negli anni ‘50 del Secolo scorso, ha rapidamente evoluto e influenzato vari settori professionali e sociali, senza però arrivare a una definizione universalmente accettata a causa della sua natura multidisciplinare e in continua trasformazione. Parallelamente, l’OI, solleva questioni etiche e legali complesse, rendendo cruciale la necessità di una definizione chiara e condivisa. Il presente scritto esplora queste tematiche, evidenziando l’importanza di una definizione chiara e un consenso univoco sia per l’intelligenza artificiale che per l’intelligenza organoide. Solo attraverso un consenso condiviso è possibile sviluppare regolamentazioni che promuovano l’innovazione tecnologica in un contesto di responsabilità sociale ed etica, affrontando le sfide e le opportunità presentate da queste avanzate tecnologie.


The Frontier of OI (Organoid Intelligence)
The field of Artificial Intelligence (AI) and the emerging domain of Organoid Intelligence (OI) represent two of the most advanced and promising frontiers of modern science and technology. AI, which originated in the 1950s, has rapidly evolved and influenced various professional and social sectors. However, it has not yet achieved a universally accepted definition due to its multidisciplinary nature and continuous transformation. In parallel, OI raises complex ethical and legal issues, making a clear and shared definition crucial. This paper explores these issues, highlighting the importance of clear definitions and unanimous consensus for both Artificial Intelligence and Organoid Intelligence. Only through shared consensus is it possible to develop regulations that promote technological innovation within a framework of social and ethical responsibility, addressing the challenges and opportunities presented by these advanced technologies.
Sommario: 1. Premessa.- 2. Il sistema di IA (Intelligenza Artificiale).- 3. L’Organoid Intelligence (OI) e The Vision Paper Organoid Intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish.- 4. Distinzione tra IO e IA.- 5. Sviluppi e potenzialità dell’IO: the “biocomputer” powered by human brain.- 6. The Baltimore Declaration toward OI e The White Paper: alla ricerca del consenso sulla definizione.- 7. Conclusioni.

1. Premessa

Le rivoluzioni scientifiche e tecniche hanno il potenziale di sovvertire l’ordine regolato, una caratteristica che le distingue dalle rivoluzioni politiche, raramente affrontate dalla dottrina[1]. L’intelligenza artificiale (IA) rappresenta una delle principali innovazioni dell’epoca attuale, influenzando praticamente ogni attività.

Gli aspetti sulla IA sono molteplici, sono tra loro intrecciati e tra loro si condizionano e riguardano gli interessi pubblici, i diritti fondamentali delle persone e gli interessi commerciali.

La competizione per il dominio dell’intelligenza artificiale è una battaglia globale tra nazioni, caratterizzata da una incessante corsa per mobilitare le migliori risorse umane e materiali. Questa sfida non riguarda solo la tecnologia, ma riflette anche le differenze tra vari sistemi sociopolitici e ideativi. Attualmente, un grande paese sta recuperando terreno in settori chiave come quello militare, cercando di colmare il divario con un altro paese leader. Questa competizione ricorda la corsa agli armamenti nucleari, con le nazioni determinate a prevalere[2].

Tuttavia, la competizione spesso non si svolge esclusivamente tra nazioni, ma anche tra le grandi aziende tecnologiche, le cosiddette Big tech, che per loro capitalizzazione patrimoniale e capacità tecnologica superano molte singole nazioni e sono di fatto dei Monopolistic Players of AI Ecosystem. Queste entità non detengono solo immense risorse finanziarie, ma esercitano un’influenza globale spesso superiore a quella dei governi. La competizione, oltre a essere geopolitica tra nazioni, si manifesta all’interno degli Stati, dove le aziende tecnologiche influenzano profondamente le decisioni politiche, economiche e sociali. Le Big Tech, inoltre, non si limitano a confrontarsi con gli Stati, ma competono tra loro per il predominio tecnologico. Settori come l’intelligenza artificiale, la gestione dei dati e le infrastrutture cloud sono diventati cruciali per determinare chi guiderà la prossima rivoluzione tecnologica. Queste aziende non si contendono solo il mercato, ma anche le risorse umane più qualificate, il controllo delle informazioni e delle infrastrutture digitali globali.

In questo scenario, la competizione si articola su più livelli: tra Stati, tra le imprese tecnologiche all’interno degli Stati, e tra le stesse Big Tech a livello globale. Ciò crea un quadro complesso dove le alleanze e le rivalità si intrecciano in modi che possono influenzare profondamente l’economia mondiale, la sicurezza nazionale e la vita quotidiana delle persone. La sfida per la supremazia tecnologica diventa quindi una questione di strategia multilivello, che richiede una comprensione profonda delle dinamiche interne ed esterne che guidano questo nuovo tipo di confronto globale.

In tale contesto, intervengono i singoli Stati o le unioni di Stati (come la Ue) attraverso le varie autorità competenti e con regolamentazioni mirate. Un esempio recente è il Regolamento 2024/1689/UE del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti 2008/300/CE, 2013/167/UE, 2013/168/UE, 2018/858/UE, 2018/1139/UE e 2019/2144/UE e le direttive 2014/90/UE, 2016/797/UE e 2020/1828/UE (regolamento sull’intelligenza artificiale), che rappresenta un primo tentativo di stabilire delle norme per governare l’uso e lo sviluppo delle tecnologie avanzate. Queste regolamentazioni si propongono di cercare di bilanciare il potere delle Big tech, proteggere i diritti dei cittadini e garantire che le innovazioni tecnologiche avvengano in un contesto di responsabilità e sicurezza in un mercato accessibile e aperto. Le autorità nazionali e sovranazionali svolgono quindi un ruolo cruciale nel tentativo di controllare e indirizzare l’impatto delle tecnologie emergenti, cercando di mantenere un equilibrio tra progresso tecnologico e tutela degli interessi pubblici. Tuttavia, la rapidità dell’evoluzione della tecnologia e degli eventi rischiano di fornire discipline e tutele inadeguate, già superate o con effetti inversi a quelli prospettati.

In un recente intervento Paolo Benanti mette in evidenza l’importanza degli acquedotti romani non solo come opere ingegneristiche, ma anche come strumenti di coesione sociale e simboli del contratto sociale. La distribuzione equa dell’acqua contribuiva alla salute pubblica, all’equità sociale e alla prosperità economica. Benanti suggerisce che oggi la tecnologia digitale potrebbe svolgere un ruolo simile degli acquedotti romani contribuendo a rafforzare il contratto sociale[3]. Tuttavia, la realizzazione di infrastrutture digitali in Italia incontra ostacoli economici, regolamentari e culturali, specie nelle aree rurali. Benanti propone la creazione di una costellazione di satelliti italiani per migliorare l’accesso alla banda larga, promuovendo così lo sviluppo economico e l’unità nazionale. Questa iniziativa avrebbe anche la funzione di contrastare l’influenza di imprenditori stranieri, il cui controllo sull’accesso e la gestione delle connessioni spaziali potrebbe compromettere le garanzie istituzionali e la sovranità tecnologica nazionale[4].

Questa proposta assume ulteriore rilevanza se consideriamo la fragilità delle attuali infrastrutture digitali non solo nazionali ma anche globali. È da porsi d’obbligo una domanda riprendendo la lettura di un recente scritto di Shapiro. Pone al lettore la domanda: «ci si può fidare veramente, anche se l’intelligenza fosse impeccabile, data la condizione attuale delle reti wireless globali? Quante volte il vostro telefono ha interrotto una chiamata? Quante volte il vostro Wi-Fi ha fallito durante un’importante video conferenza, lasciandovi a fissare l’immagine bloccata o poco piacevole della faccia di qualcun altro?»[5].

La fragilità delle infrastrutture digitali globali rappresenta un problema cruciale, soprattutto data la loro crescente interconnessione e dipendenza da pochi grandi attori tecnologici. Un esempio emblematico di questa vulnerabilità si è verificato il 19 luglio 2024, quando un malfunzionamento nel sistema di sicurezza di un gestore di servizi digitali ha causato un’interruzione su scala mondiale, colpendo vari settori chiave come aeroporti, banche e ospedali. Questo incidente ha messo in evidenza la necessità di migliorare la sicurezza informatica e diversificare la gestione delle infrastrutture digitali critiche per prevenire future crisi globali.

Per converso l’altra faccia della medaglia vede un’ulteriore questione di non poca rilevanza che è di tipo ambientale ed energetico. Si consideri che questo tipo di innovazioni tecnologiche, specialmente nell’ambito dell’intelligenza artificiale, stanno comportando un aumento significativo delle emissioni di Co2. La crescente domanda di potenza di calcolo necessaria per alimentare l’industria digitale prevede un incremento delle emissioni fino al 775% entro il 2040. I modelli di IA generativa, che richiedono ingenti risorse energetiche per l’elaborazione e l’addestramento, sono particolarmente impattanti. Per esempio, l’addestramento di un singolo modello di linguaggio naturale può produrre emissioni equivalenti a quelle generate da cinque automobili a benzina durante il loro ciclo di vita. Inoltre, si stima che le grandi aziende tecnologiche consumino complessivamente più energia di oltre cento Stati del mondo, evidenziando l’urgente necessità di migliorare l’efficienza energetica e adottare pratiche più sostenibili. Le possibili soluzioni includono l’utilizzo di software per ottimizzare l’efficienza energetica e la collaborazione con aziende che promuovono l’uso di energie rinnovabili. Tuttavia, la mancanza di trasparenza nei dati relativi al consumo energetico delle infrastrutture tecnologiche rende difficile valutare l’impatto ambientale complessivo e implementare strategie di mitigazione efficaci[6].

2. Il sistema di IA (Intelligenza Artificiale)

Le molteplici interpretazioni dell’intelligenza artificiale continuano a emergere nel dibattito scientifico e tecnologico, rendendo difficile una definizione uniforme[7]. Questa mancanza di consenso deriva dalla natura multidisciplinare e in continua evoluzione dell’IA, che include una vasta gamma di tecnologie e applicazioni, dalle reti neurali ai sistemi esperti, fino agli algoritmi di apprendimento automatico[8]. La varietà di approcci e metodologie rende difficile stabilire una definizione unica e condivisa.

La mancanza di consenso su una definizione specifica di IA è spiegata con la difficoltà di tracciare una chiara distinzione tra ciò che costituisce IA e ciò che non lo è[9]. Questo porta i legislatori a trovare definizioni specifiche che possano essere utili per affrontare problemi strettamente identificati posti dalle applicazioni di IA[10]. Sul punto restano illuminanti le considerazioni di Rodotà che evidenziava l’importanza di «afferrare il nuovo» e dare una forma giuridica adeguata alle novità tecnologiche per evitare la svalutazione del diritto e la perdita della sua capacità regolativa[11].

La disciplina giuridica dell’IA oggi si sta affermando, riflettendo la complessità del fenomeno e la necessità di un dibattito giuridico approfondito. Una disciplina giuridica in via di affermazione, come quella europea, potrebbe anche portare a tracciare una definizione di intelligenza artificiale più strutturata. La stessa normativa consciamente afferma «l’IA è una famiglia di tecnologie» (cfr. Considerando n. 138).

In effetti, quando si parla di intelligenza artificiale, emergono sempre questioni terminologiche che devono essere chiarite in considerazione delle numerose tecnologie che vi si innestano. Si ritiene, infatti, di usare il termine «sistemi di intelligenza artificiale» (si veda il Considerando n. 12 del Regolamento IA) poiché questo termine ricomprende sia l’intelligenza artificiale propriamente detta sia l’apprendimento automatico (machine learning). L’IA si riferisce alla teoria e allo sviluppo di sistemi capaci di eseguire compiti che richiedono intelligenza umana, mentre l’apprendimento automatico è una sotto-disciplina che si occupa di algoritmi e modelli che permettono ai computer di imparare dai dati e migliorare le loro prestazioni nel tempo. La differenza risale agli anni ‘50 del Secolo scorso, con la nascita dell’IA ufficialmente nel 1956 e le prime metodologie di apprendimento automatico emergenti nel 1948. Sebbene spesso confusi nel discorso comune, è fondamentale riconoscere che l’IA ha obiettivi teorici in continua evoluzione, mentre il machine learning si concentra sulla risoluzione di problemi specifici attraverso metriche definite. Questa distinzione è simile a quella tra scienza e tecnologia, ambiti che interagiscono ma non si sovrappongono completamente. Le implicazioni di questa distinzione sono significative sia per l’impatto scientifico che per quello sociale dei sistemi di IA, con particolare rilievo per l’automatizzazione delle previsioni[12].

L’intelligenza è studiata da diverse discipline, ciascuna con il proprio approccio: la filosofia ha esaminato i processi del pensiero e della conoscenza; la matematica ha formalizzato metodi logici e probabilistici; l’economia ha sviluppato tecniche per l’uso efficiente delle risorse; la medicina ha investigato il funzionamento cerebrale e sensoriale; la psicologia ha analizzato l’apprendimento e la mente come processi di elaborazione delle informazioni; la linguistica ha esplorato la formazione e comprensione del linguaggio, anche attraverso programmi informatici[13]. L’IA ha preso spunto da tutte queste ricerche con l’obiettivo non solo di studiare l’intelligenza, ma di crearla[14].

L’approccio ingegneristico dell’IA può anche contribuire alla comprensione dell’intelligenza umana, poiché le facoltà conoscitive che l’IA tenta di replicare sono simili a quelle umane. In questo scambio, l’IA può trarre ispirazione dall’intelligenza naturale e viceversa, migliorando entrambe le conoscenze[15].

L’intelligenza umana e quella artificiale differiscono profondamente per struttura e funzionamento.

Il cervello umano, con circa 100 miliardi di neuroni e 1000 miliardi di connessioni, possiede una complessità ineguagliabile rispetto ai sistemi artificiali, che sono realizzati con hardware come chip di silicio e sensori. Mentre la nostra comprensione del cervello è ancora limitata, è chiaro che esso gestisce processi cognitivi in modo altamente parallelo e complesso. I sistemi artificiali, sebbene più semplici, eseguono calcoli molto più rapidamente e su grandi quantità di dati, eccellendo in ambiti specifici per cui sono progettati, ma risultano inferiori nell’interpretare situazioni nuove o formulare ipotesi. Un’altra differenza risiede nel fatto che l’intelligenza umana è integrata nel corpo e interagisce con funzioni biologiche e processi metabolici, cosa che nei sistemi artificiali, anche nei robot, è assente o solo rudimentale[16].

Vediamo se ci sono punti “fisici” di contatto.

3. L’Organoid Intelligence (OI) e The Vision Paper Organoid Intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish

L’OI (Organoid Intelligence) – IO intelligenza organoide rappresenta una significativa innovazione nel campo della biocomputing, aprendo nuove possibilità per l’interfaccia tra biologia e tecnologia. È un campo emergente che si basa sull’uso di organoidi cerebrali, piccoli modelli tridimensionali di tessuto cerebrale umano creati a partire da cellule staminali. Questi organoidi non solo replicano aspetti critici della struttura e della funzione del cervello umano, ma offrono anche nuove opportunità per la ricerca sulle malattie neurologiche e per lo sviluppo di sistemi computazionali avanzati. L’obiettivo della OI è sfruttare la capacità di apprendimento e la complessità delle reti neurali umane per creare una nuova generazione di sistemi di calcolo biologico.

L’idea dell’intelligenza artificiale sta appena penetrando nella nostra coscienza collettiva, ma mentre osserviamo i nuovi sviluppi nel settore, il vero “nuovo arrivato” potrebbe essere un nuovo tipo di intelligenza ibrida umano-tecnologica — derivata da un ammasso di cellule non più grande di un chicco di riso. Queste nuove unità di capacità computazionale sono organoidi cerebrali, coltivati in laboratorio e capaci di produrre attività neurologica di base, ma in tempo reale. Gli organoidi cerebrali sono un sottogruppo specifico, e probabilmente il più interessante, dei modelli di organoidi che stanno appena iniziando ad entrare nei dibattiti legali[17].

La comunità scientifica sta esplorando come produrre dispositivi super efficienti utilizzando hardware biologico. Biocomputer ispirati alla natura, processori fatti di cellule nervose umane. Un termine nuovo che racchiude progetti interessanti: intelligenza organoide. IO per combinare l’IA.

Per qualche tempo, i biologi hanno lavorato con ingegneri e programmatori nel campo del natural computing, nel tentativo di creare una nuova generazione di computer più sostenibili ispirati alla natura. Gli studi su queste “macchine viventi”, i cosiddetti biocomputer, sono stati perfezionati nel corso degli anni[18].

Questo stesso approccio si applica anche all’intelligenza artificiale (IA) con processori realizzati a partire da cellule nervose umane. Un gruppo di scienziati della Johns Hopkins University (USA), insieme ad altri istituti di ricerca, ha sviluppato un progetto presentato nel Vision Paper intitolato Organoid Intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish pubblicato sulla rivista Frontiers in Science. In esso si descrive il processo di creazione di un dispositivo basato su hardware biologico: neuroni umani coltivati, chiamati organoidi cerebrali o brain-on-a-chip[19].

Il paragrafo introduttivo del Vision Paper esalta le straordinarie capacità del cervello umano rispetto ai calcolatori tradizionali. Anche se il cervello umano è più lento dei computer nell’elaborare informazioni semplici, come i calcoli aritmetici, supera di gran lunga i computer nell’elaborazione di informazioni complesse, specialmente quando i dati sono pochi o incerti. I cervelli umani possono eseguire sia l’elaborazione sequenziale che quella parallela, mentre i computer sono limitati principalmente all’elaborazione sequenziale[20].

Questa superiore capacità di decisione è particolarmente evidente nella gestione di grandi dataset eterogenei e incompleti. Un esempio della potenza di elaborazione del cervello umano è dato dal fatto che, nel 2013, il quarto computer più potente del mondo ha impiegato 40 minuti per modellare un solo secondo di attività del 1% del cervello umano, illustrando quanto sia avanzato ed efficiente il cervello umano rispetto ai computer moderni. Inoltre, il cervello umano ha una capacità di memoria stimata a circa 2.500 terabyte, basata sulla presenza di 86-100 miliardi di neuroni, ciascuno con più di 10^15 connessioni[21].

Questa capacità di memoria e connettività evidenzia l’enorme potenziale del cervello umano. Il cervello è ancora ineguagliato dai moderni computer. Si consideri che Frontier, l’ultimo supercomputer in Kentucky, è un’installazione da 600 milioni di dollari, estesa su 6300 metri quadrati. Solo nel giugno dello scorso anno ha superato per la prima volta la capacità computazionale di un singolo cervello umano, ma utilizzando un milione di volte più energia.

Nel Vision Paper, gli autori introducono l’“Organoid Intelligence” (OI), che mira a sfruttare questa potenza di elaborazione biologica del cervello. L’OI propone di utilizzare organoidi cerebrali, colture tridimensionali di cellule cerebrali umane, per creare un nuovo paradigma di calcolo biologico, superando le limitazioni dei calcolatori tradizionali e sfruttando le uniche capacità del cervello umano sia in termini di potenza di elaborazione che di efficienza energetica.

4. Distinzione tra IO e IA

La ricerca sull’intelligenza artificiale (IA) mira a sviluppare computer in grado di imitare le funzioni cognitive umane come apprendimento e ragionamento. Anche se ci sono stati progressi significativi, la piena emulazione dell’intelletto umano non è ancora raggiunta. L’hardware al silicio tradizionale, pur avanzato, non può competere con il parallelismo e l’adattabilità naturali del cervello umano. Di conseguenza, è essenziale esplorare approcci alternativi ispirati ai sistemi biologici[22].

Per capire cosa può fare la IO, bisogna sapere come si differenzia dalla IA e come quest’ultima si differenzia dal software. Il software tradizionale esegue compiti statici basati su istruzioni predefinite, l’IA è progettata per apprendere e adattarsi, emulando in parte l’intelligenza umana. Attualmente sul punto vi è un po’ di confusione in particolare nel campo finanziario dove ci sono imprese che si spacciano per applicatori e sviluppatori di IA mentre in realtà operano su software.

L’IA tradizionale si basa su algoritmi di apprendimento automatico che processano grandi quantità di dati per identificare pattern e fare previsioni. Questi sistemi richiedono enormi quantità di energia e risorse computazionali, e sono limitati dalla loro incapacità di adattarsi in modo flessibile a nuove situazioni senza una revisione completa dell’algoritmo.

Invece, la IO sfrutta la capacità innata degli organoidi cerebrali di apprendere e adattarsi in modo dinamico. È una sfida ed è una nuova frontiera, in effetti: «While significant progress has been made in Artificial Intelligence (AI), replicating the intricate processes of the human brain with silicon-based hardware remains a challenge»[23].

Gli organoidi possono formare nuove connessioni sinaptiche e adattare le loro reti neurali in risposta a stimoli esterni, mimando i processi di apprendimento e memoria del cervello umano. Questo approccio non solo è più efficiente dal punto di vista energetico, ma offre anche la possibilità di sviluppare sistemi di calcolo che possono evolversi e migliorarsi nel tempo, proprio come fa il cervello umano[24].

Il concetto di Intelligenza Organoide (IO) sta emergendo come un campo interdisciplinare che combina gli organoidi cerebrali con l’IA. L’IO mira a sfruttare le capacità computazionali delle reti neurali biologiche per sviluppare nuove forme di intelligenza e biocomputing. Questo approccio promette di creare modelli di calcolo che utilizzano colture 3D di cellule cerebrali umane, integrando tecnologie come la microfluidica e le matrici di microelettrodi.

Attualmente, da quanto è noto, le ricerche condotte dalla Johns Hopkins University rappresentano uno dei pilastri fondamentali nello sviluppo della IO. Gli scienziati hanno lavorato per oltre un decennio con organoidi cerebrali, riuscendo a sviluppare modelli che replicano in modo dettagliato le funzioni cellulari e molecolari del cervello umano. Gli organoidi cerebrali prodotti in laboratorio mostrano capacità di apprendimento e memorizzazione simili a quelle osservate nel cervello umano, grazie a reti di neuroni in grado di stabilire connessioni sinaptiche e di rispondere a stimoli elettrici e chimici in modo sofisticato.

Per quasi due decenni, gli scienziati hanno utilizzato piccoli organoidi, tessuti coltivati in laboratorio che somigliano a organi completamente sviluppati, per sperimentare su reni, polmoni e altri organi senza ricorrere a test su esseri umani o animali. Più recentemente, Hartung[25] e i suoi colleghi della Johns Hopkins hanno lavorato con organoidi cerebrali, sfere delle dimensioni di un punto di penna con neuroni che promettono di sostenere funzioni di base come l’apprendimento e la memoria[26].

«Questo apre la ricerca su come funziona il cervello umano» ha detto Hartung. «Perché si può iniziare a manipolare il sistema, facendo cose che non si possono fare eticamente con cervelli umani».

Hartung ha iniziato a coltivare e assemblare cellule cerebrali in organoidi funzionali nel 2012, utilizzando cellule da campioni di pelle umana riprogrammate in uno stato simile a cellule staminali embrionali. Ogni organoide contiene circa 50.000 cellule, circa la dimensione del sistema nervoso di un moscerino della frutta. Ora immagina di costruire un computer futuristico con tali organoidi cerebrali. I ricercatori della Hopkins sono dell’avviso che «A “biocomputer” powered by human brain cells could be developed within our lifetime».

Progressi del genere consentono di sperimentare nuovi paradigmi di biocomputing che potrebbero andare oltre le restrizioni dei tipici sistemi di calcolo basati sul silicio. La capacità degli organoidi di formare reti neurali complesse e di esibire comportamenti di apprendimento non supervisionato apre la strada a un nuovo tipo di calcolo, che combina l’efficienza energetica e la capacità di apprendimento continuo tipiche del cervello umano con la precisione e la velocità delle macchine moderne.

5. Sviluppi e potenzialità dell’IO: the “biocomputer” powered by human brain

Gli organoidi cerebrali, come altri modelli di organi, servono a studiare lo sviluppo neurologico umano. I ricercatori creano organoidi cerebrali in laboratorio facendo tornare dei campioni di cellule a uno stato di “pluripotenza”[27], cioè cellule staminali che possono diventare qualsiasi tipo di cellula. Quando queste cellule staminali vengono coltivate in terreni tridimensionali, si auto-organizzano e si differenziano in vari tipi di cellule e tessuti cerebrali che formano, in miniatura, sistemi funzionali con attività neurale misurabile[28].

Le recenti innovazioni nella biologia delle cellule staminali e nell’ingegneria degli organoidi, insieme alle tecnologie delle interfacce neurali come gli array di microelettrodi e gli elettrodi shank, hanno reso possibile lo sviluppo dell’Intelligenza Organoide (IO). Questa nuova area di ricerca sfrutta decenni di studi su neuroprotesi e ingegneria neuromorfica, che cercano di connettere il sistema nervoso umano a dispositivi informatici. Obiettivo chiave è migliorare l’ingegneria degli organoidi e la maturazione del tessuto neurale per consentire registrazioni stabili e a lungo termine, oltre ad aumentare la complessità delle reti neuronali. Questi sviluppi potrebbero portare a una migliore comprensione del cervello umano e all’innovazione in nuovi tipi di dispositivi computazionali biologici[29].

La capacità degli organoidi di replicare il funzionamento delle reti neurali umane apre nuove possibilità per lo sviluppo di biocomputer che potrebbero superare le limitazioni dei sistemi di calcolo attuali. I biocomputer basati su organoidi potrebbero offrire una maggiore capacità di elaborazione, una migliore efficienza energetica e la possibilità di risolvere problemi complessi in modo più simile a come farebbe un cervello umano, con potenziali applicazioni in campi che vanno dalla medicina personalizzata alla robotica avanzata.

In dettaglio, come nota Smirnova[30] le applicazioni e i potenziali benefici dell’IO spaziano tra neuroscienze, medicina, informatica, robotica e interfacce cervello-macchina e includono: Disease modeling[31], Biocomputing[32], integrazione cervello-computer[33], robotica[34], medicina rigenerativa[35].

La IO ha il potenziale di rivoluzionare la ricerca medica, in particolare nello studio delle malattie neurologiche. Gli organoidi cerebrali offrono un modello sperimentale unico per lo studio dei meccanismi di malattie complesse come l’Alzheimer e il Parkinson, permettendo agli scienziati di osservare in tempo reale come queste malattie progrediscono a livello cellulare e di testare nuove terapie in modo più efficiente rispetto ai modelli animali tradizionali.

Gli organoidi cerebrali rappresentano un’importante innovazione scientifica che permette di studiare il cervello umano in laboratorio. Questi modelli 3D sono fondamentali per approfondire la nostra conoscenza dello sviluppo neuronale e delle malattie neurologiche, offrendo opportunità per nuovi trattamenti e terapie. Tuttavia, la loro capacità di replicare funzioni cerebrali pone questioni etiche significative, come il rischio di creare tessuti con una certa forma di coscienza o il dilemma della sperimentazione su «mini-cervelli» umani. Inoltre, ci sono implicazioni legali e sociali riguardo alla proprietà, l’uso e la regolamentazione di tali tecnologie, che richiedono un attento dibattito e politiche adeguate[36].

L’adozione di tecnologie basate su organoidi cerebrali, in effetti, solleva questioni etiche e legali. La capacità di questi organoidi di esibire comportamenti cognitivi basilari e di apprendere in modo non supervisionato richiede una riflessione approfondita sul loro status giuridico e sulla loro protezione. È necessario sviluppare un quadro giuridico e poi anche normativo che bilanci la necessità di promuovere la ricerca scientifica con la protezione dei diritti umani e la salvaguardia della dignità degli individui i cui tessuti sono utilizzati per creare questi organoidi.

Le questioni etiche includono la considerazione della moralità delle pratiche di creazione e utilizzo degli organoidi cerebrali, l’eventuale necessità di riconoscere i diritti dei donatori di tessuti e la gestione delle implicazioni legali derivanti dai risultati prodotti dai biocomputer basati su organoidi. Quindi ci si chiede se vi sono ragioni per riconoscere la personalità? Si tratta di clonazione riproduttiva umana? Chi detiene i diritti sui dati e le invenzioni create da un organoide cerebrale? E come possiamo garantire che queste tecnologie siano utilizzate in modo etico e responsabile? [37]

La ricerca sugli organoidi cerebrali umani, ottenuti da cellule staminali pluripotenti, ha sollevato importanti questioni giuridiche, tra cui la possibilità che questi organoidi possano essere considerati persone giuridiche. Questo aspetto è stato esaminato dalla dottrina[38] sotto due aspetti: la personalità giuridica come persona naturale e come persona giuridica non umana.

Sul punto altra dottrina ha avanzato l’argomento secondo cui, se un organoide cerebrale umano può stimolare attività neurali rilevanti, potrebbe essere considerato vivo come una persona naturale[39]. Questo si basa sul criterio della morte cerebrale, che definisce la fine della vita legale di una persona fisica come la cessazione irreversibile delle attività neurali. Tuttavia, questa teoria potrebbe essere criticata perché gli organoidi attuali non possiedono la capacità di integrare un corpo umano completo e non soddisfano i requisiti legali di nascita.

Altra indagine[40] parte dall’assunto che «the personhood does not fit into a neat and tidy box … because it is complicated, textured, and dynamic» e argomenta che gli organoidi cerebrali possano essere considerati persone giuridiche non umane, simili a società o entità riconosciute per scopi specifici. Questo approccio considera ulteriori tre teorie: la teoria dell’aggregato, dove una società è vista come un’aggregazione di soggetti; la teoria dell’entità reale o naturale, che vede la società indipendentemente dai suoi soggetti; e la teoria della persona artificiale, che definisce una persona giuridica come un’entità fittizia creata per scopi giuridici specifici.

Infine, la situazione degli organoidi cerebrali potrebbe paragonarsi con quella degli animali e fiumi, che in alcuni casi sono stati riconosciuti come persone giuridiche per la loro protezione o basati su credenze culturali e valori sociali[41].

Ulteriore aspetto riguarda le somiglianze tra gli organoidi cerebrali e i sistemi di intelligenza artificiale (IA). Alcuni sistemi di IA avanzata potrebbero essere considerati persone giuridiche per responsabilizzare legalmente le azioni che possono compiere. Sia il tema sulla personalità giuridica[42] che sulla responsabilità digitale[43] sono molto vivi e dibattuti dalla dottrina.

Lo stesso ragionamento, con le dovute considerazioni specifiche, potrebbe applicarsi agli organoidi cerebrali se raggiungessero un livello di complessità tale da avere un impatto significativo sulla salute umana o altri aspetti vitali. Le questioni giuridiche legate agli organoidi cerebrali umani sono complesse. La distinzione tra personalità naturale e giuridica è cruciale per capire se e come gli organoidi possano essere integrati nelle strutture legali esistenti. Le teorie e le comparazioni con animali, fiumi e sistemi di IA offrono spunti per ulteriori discussioni, evidenziando la necessità di una regolamentazione adeguata e di un dibattito pubblico su queste tecnologie emergenti.

Un ulteriore aspetto emerge nell’articolo A Bioethics View of Brain Organoids, nel quale Lydialyle Gibson presenta il punto di vista del bioeticista Insoo Hyun[44]. L’articolo analizza come la questione principale riguardo agli organoidi cerebrali sia frequentemente legata al concetto di coscienza, temendo che questi tessuti possano diventare senzienti. Hyun sottolinea che, al momento, la scienza non supporta tali preoccupazioni poiché gli organoidi rimangono ancora più semplici rispetto ai cervelli umani reali e non possiedono le strutture neurali complesse necessarie. In effetti, egli sostiene che «Right now, it’s not even a legal question, because there’s no law around this. It’s a philosophical moral question: What are my responsibilities? What is the responsibility of the lab, of the institution, if this were to happen».

Hyun si concentra invece su questioni più immediate come il consenso informato dei donatori di cellule staminali, l’uso appropriato degli organoidi e la validazione della loro accuratezza come modelli cerebrali. Egli evidenzia la necessità di garantire che i partecipanti alla ricerca comprendano appieno in cosa consiste il loro coinvolgimento per evitare eventuali contestazioni future. Inoltre, vi è la questione delle “scoperte incidentali”, ossia anomalie rilevate durante la ricerca che potrebbero avere implicazioni per la salute del donatore. Egli discute l’importanza di validare l’accuratezza biologica degli organoidi per determinare se tali scoperte siano rilevanti e se sia necessario informare i donatori. Infine, Hyun riflette sui possibili usi futuri degli organoidi cerebrali e sulla necessità di sviluppare linee guida etiche per prevenire scenari in cui questi tessuti possano acquisire forme di coscienza o esperienza.

6. The Baltimore Declaration toward OI e The White Paper: alla ricerca del consenso sulla definizione

Un approccio strutturato alla questione nei termini ora esposti è stato assunto dal gruppo di ricercatori della Johns Hopkins a cominciare con il citato Vision Paper su Organoid Intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish – e in particolare e a seguire la Baltimore Declaration toward OI formulata durante il primo workshop sull’Intelligenza Organoide (OI), che si è tenuto dal 22 al 24 febbraio 2022 alla Johns Hopkins.

Nella Dichiarazione di Baltimora si sottolinea l’importanza di esplorare il potenziale degli organoidi cerebrali per progredire nella comprensione del cervello e sviluppare nuove forme di calcolo biologico, affrontando al contempo le preoccupazioni etiche. Parallelamente vi è anche il White Paper sull’Intelligenza Organoide (OI) che fornisce una standardizzazione della terminologia e delle linee guida per la ricerca sugli organoidi cerebrali.

Questi documenti si propongono come strumenti operativi e di garanzia per assicurare che la ricerca sia svolta seguendo criteri di rigore, etica e cooperazione a livello internazionale.

The Baltimore Declaration toward OI ha l’obiettivo di esplorare il potenziale delle colture cellulari organoidi del cervello umano per migliorare la comprensione delle funzioni cognitive umane e sviluppare nuove forme di biocomputing. Gli obiettivi principali includono l’avanzamento della comprensione del cervello, lo sviluppo del biocomputing, l’innovazione nelle interfacce cervello-macchina, e l’integrazione delle tecnologie organoidi nella robotica e nella medicina rigenerativa. Il documento sottolinea la necessità di avanzamenti nelle tecnologie delle cellule staminali umane e nella bioingegneria per ricreare architetture cerebrali complesse e affronta le sfide etiche legate alla possibilità che gli organoidi sviluppino forme di coscienza e ai diritti dei donatori di cellule. Inoltre, la dichiarazione invita la comunità scientifica internazionale a collaborare per sviluppare l’IO come disciplina scientifica collaborativa, con l’obiettivo di utilizzare questi modelli per trattare disturbi neurodegenerativi, migliorare le interfacce uomo-computer e sviluppare capacità computazionali biologiche che possano integrare i computer al silicio.

Inoltre, come anticipato, è stato definito da Smirnova et al.[45] il White Paper sull’Intelligenza Organoide che è stato sviluppato per definire i termini e i concetti relativi a questa emergente area scientifica. Questo documento mira a standardizzare la terminologia fornendo definizioni precise per termini chiave come “intelligenza organoide”, “biocomputing”, e “interfacce cervello-macchina”. Inoltre, stabilisce linee guida per la ricerca sugli organoidi cerebrali, inclusi i metodi per misurare e analizzare le capacità cognitive degli organoidi.

I documenti promuovono la collaborazione interdisciplinare, incoraggiando biologi, ingegneri, informatici e altri specialisti a lavorare insieme per avanzare nel campo dell’IO. Essi sono fondamentali per garantire che la ricerca nell’IO sia condotta in modo rigoroso, etico e coordinato a livello internazionale.

Indubbiamente questa tecnologia ha bisogno di risposte rapide ed etiche per svilupparsi in modo sostenibile.

7. Conclusioni

Marc Andreessen, un noto venture capitalist di successo, aveva osservato come il software stesse rivoluzionando interi settori attraverso l’automazione. Allo stesso modo, oggi si prevede che l’intelligenza artificiale trasformerà il software. Pertanto, è fondamentale stare sempre al passo con l’evoluzione tecnologica[46]. Lo stesso potrebbe avvenire tra l’IA e l’IO e se non in termini di una sostituzione forse potrebbe avvenire in termini di una integrazione. In effetti, l’IO rappresenta una delle più promettenti e potenti innovazioni nel campo della biocomputing e della ricerca neurologica. Con la capacità di replicare e superare i limiti delle tecnologie di calcolo tradizionali, la IO pare essere in grado di offrire una strada verso nuovi orizzonti nella comprensione del cervello umano e nello sviluppo di terapie avanzate per le malattie neurologiche.

Entrambi gli ambiti (IA e IO), sebbene distinti, condividono la necessità di una definizione chiara e di un consenso univoco. Il consenso è cruciale per gestire aspetti etici, legali e normativi legati all’evoluzione di tecnologie innovative e potenzialmente rivoluzionarie.

Per l’IA, la mancanza di una definizione universalmente accettata ha portato a un continuo dibattito su come regolamentare adeguatamente questa tecnologia sebbene oggi l’appena emanato regolamento europeo AI Act si pone questo obiettivo. Sarà però da capire come verrà accettato dalle Big tech (Monopolistic Players of AI Ecosystem) e quale ne sarà l’impatto. Sul fronte opposto l’AI Act è stato descritto come una decisione dal “gusto agrodolce” per le startup e le PMI. Pur affrontando importanti sfide di trasparenza ed etica, la disciplina impone una serie di obblighi a tutte le aziende che utilizzano o sviluppano intelligenza artificiale. Nonostante gli aggiustamenti previsti per le piccole imprese, come i sandbox normativi, si teme che il regolamento crei barriere regolamentari aggiuntive che avvantaggeranno la concorrenza dei colossi stranieri delle superpotenze straniere, limitando così le opportunità per l’emergere di campioni europei dell’IA[47]. In effetti sarà da scoprire l’effettiva portata del regolamento, in particolare la portata del capo terzo dedicato ai sistemi di IA ad alto rischio e alle pratiche di IA vietate.

Una prima impressione è che la normativa europea, basata essenzialmente sul rischio di eventi negativi, vieta l’uso di strumenti per finalità non note, sanzionando presuntivamente senza accertare la colpa[48]. Secondo questa impostazione la normativa presenta diverse criticità, tra cui l’impossibilità di innovare oltre quanto già previsto dal legislatore europeo. Tale regolamentazione, sebbene rassicurante per chi teme l’ignoto, ma potrebbe presto risultare restrittiva, frenando l’innovazione nell’intelligenza artificiale in Europa e limitando il progresso tecnologico a favore di attività svolte da esseri umani. Questo suscita interrogativi sull’effettiva natura delle apprensioni riguardanti l’intelligenza artificiale, che potrebbero non derivare esclusivamente dalla preoccupazione per un suo uso malintenzionato, ma anche dall’ansia verso l’ignoto e dalle conseguenze di una eccessiva evoluzione tecnologica.

Parallelamente, l’IO, con l’uso di organoidi cerebrali, apre nuove prospettive e i documenti come il Vision Paper sull’Intelligenza Organoide e la Dichiarazione di Baltimora rappresentano passi importanti verso la standardizzazione e il consenso internazionale. Questi documenti non solo stabiliscono le basi per l’IO, ma fungono anche da “pietre miliari” che molto probabilmente passeranno alla storia, replicando il processo che ha caratterizzato la nascita dell’IA nel secolo scorso.

Attualmente, ci troviamo in un campo in piena crescita con forti aspetti interdisciplinari, che richiede ingenti investimenti e offre prospettive innovative, anche se molte delle questioni affrontate possono sembrare ancora teoriche. Tuttavia, per contestualizzare il fenomeno è utile confrontarsi con disciplina europea sull’IA e con le diverse anime che l’hanno ispirata.

La questione chiave è se la disciplina sull’IA possa essere applicabile anche all’intelligenza organoide (IO), o se sarà necessario introdurre nuove norme specifiche. Potrebbe infatti darsi che, cambiando il termine da IA a IO, le stesse regolamentazioni non risultino applicabili o adeguate. Tuttavia, la legge sull’IA prevede un’esenzione, affermando che la disciplina non si applica alla ricerca scientifica e alla sperimentazione entro certe condizioni. Questo aspetto potrebbe rivelarsi vantaggioso per il nuovo sistema dell’intelligenza organoide (es. il Considerando n. 25 del Regolamento[49]).

Quindi, mentre esploriamo questi nuovi orizzonti, dobbiamo chiederci se la normativa esistente possa essere adattata e sufficiente, oppure se sarà necessario un nuovo quadro regolamentare per rispondere alle specifiche esigenze dell’intelligenza organoide. Una norma apparentemente restrittiva potrebbe, in realtà, offrire una solida base per lo sviluppo di questo campo emergente, purché adeguatamente interpretata e applicata.

In conclusione, sia per l’Intelligenza Artificiale che per l’Intelligenza Organoide, la strada verso un’integrazione sicura e responsabile nella società richiede una definizione chiara e un consenso ampio e condiviso. Solo attraverso una collaborazione interdisciplinare e internazionale, guidata da principi etici solidi e da una regolamentazione attenta, sarà possibile affrontare in modo efficace le complesse sfide poste da queste tecnologie, garantendo al contempo il progresso scientifico e tecnologico e la tutela dei valori fondamentali della società.

  1. Le rivoluzioni digitali e l’idea di macchine intelligenti hanno radici profonde nei miti e nelle narrazioni storiche, come il mito di Pigmalione e il personaggio di Frankenstein. Anche le leggi della robotica di Asimov hanno influenzato significativamente la percezione pubblica delle macchine intelligenti. Spesso, la narrazione comune è stata accusata di esagerare i progressi della tecnologia IA, suggerendo un futuro imminente in cui le macchine saranno indistinguibili dagli esseri umani. Tuttavia, è possibile che siamo arrivati a un punto in cui queste narrazioni non esagerano più, considerando i recenti sviluppi nel campo dell’intelligenza artificiale, come l’automazione avanzata, l’apprendimento automatico e i sistemi decisionali autonomi, cfr. D. Imbruglia, L’intelligenza artificiale (IA) e le regole. Appunti, in MediaLaws, 3, 2020, pp. 18-31.

    Non pochi sono i disaccordi tra i giuristi su come affrontare la realtà attuale delle tecnologie IA. Alcuni le considerano ancora semplici strumenti, mentre altri ne esagerano l’autonomia e le capacità, discutendo persino di personalità elettronica. È comunque importante affrontare realisticamente le capacità e i limiti attuali dell’IA, evitando scenari futuristici e irrealistici. Attualmente, la posizione prevalente è che nessuna macchina sia completamente autonoma o in grado di mimare pienamente l’intelligenza umana; tuttavia, non si può escludere che ci siano scoperte non ancora portate a conoscenza del pubblico che potrebbero cambiare questa percezione. Pertanto, la regolamentazione e i diritti delle macchine devono essere basati su una comprensione aggiornata e realistica delle loro capacità. Sul tema la dottrina richiamata da Imbruglia: K. Čapek, Rossum’s Universal Robots, 1923; I. Asimov, Runaround, in Astounding Science Fiction, 1942; M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Raffaello Cortina Editore, Milano, 2018; M.L. Montagnani, Flussi informativi e doveri degli amministratori di società per azione ai tempi dell’intelligenza artificiale, in Pers. Merc., 2020, p. 86; U. Pagallo, Vital, Sophia, and Co. – The Quest for the Legal Personhood of Robots in Information, 2018, p. 230; GPT-3, A robot wrote this entire article. Are you scared yet, human?, in The Guardian, 8 settembre 2020; G. Tamburrini, Autonomia delle macchine e filosofia dell’intelligenza artificiale, in Riv. Filos., 2017, p. 263; F. Pistelli, Algoritmi e contratti nel sistema finanziario, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pacini Giuridica, Pisa, 2020, p. 249; A. Z. Huq, Racial Equity in Algorithmic Criminal Justice, in Duke Law Journal, 2019, p. 1043; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 2019, p. 71; G. Pascuzzi, Il diritto nell’era digitale, Il Mulino, Bologna, 2020, p. 293; M. Luciani, La decisione robotica, in Riv. AIC, 2018, p. 872; C. Casadei, Per Esselunga primo job day di massa interamente virtuale, in Il Sole 24 Ore, 10 settembre 2020; R. Kurzweil, The Singularity is Near: When Humans Transcend Biology, Viking, New York (USA), 2005; N. Bostrom, Superintelligenza, Tendenza. Pericoli. Strategia, Bollati Boringhieri, Torino, 2018; L. B. Solum, Legal Personhood for Artificial Intelligences, in North Carol. L. Rev., 1992, p. 1231; L. Floridi, Should we be afraid of AI?, in Aeon, 2016; G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, Edizione a cura di P. Femia, E.S.I., Napoli, 2019, p. 19; P. Femia, Introduzione. Soggetti responsabili Algoritmi e diritto civile, in G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit., p. 10.

  2. Sul tema geopolitico si rinvia a: H. Tian, J. You, La Cina sconfiggerà gli Usa con l’intelligenza artificiale, in Limes, 12, 2022; F.M. De Collibus, L’era delle macchine che apprendono, in ivi; P. Triolo, Il piano degli Stati Uniti per rallentare l’Ai cinese, in ivi; J. L. Shapiro, La vera posta in gioco dell’intelligenza artificiale, in ivi; A. Aresu, Il nuovo gioco delle perle di vetro, in ; G. Cuscito, L’unicorno che sorveglia la Cina, in ivi; P. Pistone, Prevedere l’imprevedibile, in ivi; T. Numerico, Dobbiamo ripensare l’intelligenza artificiale, in ivi; P.W. Singer, L’intelligenza artificiale entrerà in guerra, in ivi; N. Cristadoro, L’Ai serve (anche) a fare la guerra, in ivi; M. Spagnulo, Nello Spazio i robot dipendono dall’uomo, in ivi; G. De Ruvo, Perché l’Ai è Caos, in ivi; F. Maronta, Ai chip, l’evoluzione della specie, in ivi; A.H. Yang, Taiwan prepari lo scudo di silicio, in ivi; A. Aresu, Taiwan, l’isola dei chip, in ivi, pp. 9-131.
  3. Secondo Benanti: con il termine “contratto sociale” si descrivono tutti quegli elementi che favoriscono un accordo teorico e, a volte, implicito tra individui per formare una società organizzata. Il contratto sociale farebbe abbandonare agli individui lo stato di natura, caratterizzato da anarchia e insicurezza, per entrare in una comunità regolata da leggi e istituzioni. Possiamo così vedere in tutte le opere tecnologiche che creano la capacità di sopravvivenza e coesistenza un modo per alimentare e rafforzare il contratto sociale. In questa prospettiva gli acquedotti romani erano progettati per fornire acqua a tutta la popolazione urbana, migliorando notevolmente la qualità della vita. Questo accesso universale all’acqua potabile contribuiva a una maggiore equità sociale e a una migliore salute pubblica, cfr. P. Benanti, Perché gli acquedotti dell’antica Roma possono essere una lezione attuale, in Il Sole 24 Ore, 24 luglio 2024.
  4. La proposta di Benanti mira a evitare che l’orbita terrestre bassa venga monopolizzata da interessi privati, favorendo invece un’infrastruttura pubblica affidabile e accessibile. Questa infrastruttura digitale pubblica potrebbe mitigare i rischi di polarizzazione associati ai social network, accelerando la competitività e la coesione sociale in modo etico e sostenibile.
  5. J. L. Shapiro, La vera posta in gioco dell’intelligenza artificiale, cit., pp. 41 ss.
  6. A. Kumar, T. Davenport, Come rendere più “verde” l’IA generativa, in Harvard Business Review, 2023, disponibile al link https://www.hbritalia.it/homepage/2023/08/24/news/come-rendere-piu-verde-lia-generativa-15620/?noScroll=true.
  7. Il dibattito sulla definizione di intelligenza artificiale (IA) ruota attorno alla possibilità che il ragionamento umano possa essere emulato da macchine. Negli anni Cinquanta e Sessanta del Secolo scorso, la teoria dell’argomentazione e lo sviluppo dell’IA erano strettamente collegati, con alcuni ricercatori che sostenevano che il ragionamento umano poteva essere considerato come una computazione e quindi riprodotto da algoritmi e macchine di Turing. Tuttavia, questa tesi è stata contestata dalla logica informale, che ha criticato l’idea che gli argomenti umani possano essere completamente formalizzati e tradotti in algoritmi. Una delle principali argomentazioni contro questa tesi è che la razionalità umana e l’argomentazione includono elementi di interpretazione e contesto che non possono essere adeguatamente rappresentati da algoritmi formali. Di conseguenza, si è sviluppata una distinzione tra una nozione ristretta di algoritmo, legata alla computabilità Turing, e una nozione più ampia, che considera anche aspetti non deterministici e indefiniti. Questo dibattito continua a essere rilevante poiché gli sviluppi recenti nella teoria della computazione e nell’IA mostrano che una visione più ampia degli algoritmi può offrire nuove prospettive sull’emulazione delle pratiche argomentative umane da parte delle macchine. Sul punto P. Cantù, I. Testa, Algoritmi e argomenti. La sfida dell’intelligenza artificiale, in Sistemi intelligenti, Rivista quadrimestrale di scienze cognitive e di intelligenza artificiale, 3, 2012, pp. 395-414.
  8. Sul tema: J. Halperin, Five Legal Revolutions Since the 17th Century. An Analysis of Global History, Springer, New York (USA), 2014; A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal, 2019, p. 8.
  9. D. Imbruglia, L’intelligenza artificiale (IA) e le regole. Appunti, cit.. Questo provoca disaccordi tra i giuristi su come affrontare la realtà attuale delle tecnologie IA. Alcuni le considerano ancora semplici strumenti, mentre altri ne esagerano l’autonomia e le capacità, discutendo persino di personalità elettronica. È comunque fondamentale affrontare realisticamente le capacità e i limiti attuali dell’IA, evitando scenari futuristici e irrealistici. Attualmente, la posizione prevalente è che nessuna macchina sia completamente autonoma o in grado di mimare pienamente l’intelligenza umana; tuttavia, non si può escludere che ci siano scoperte non ancora portate a conoscenza del pubblico che potrebbero cambiare questa percezione. Pertanto, la regolamentazione e i diritti delle macchine devono essere basati su una comprensione aggiornata e realistica delle loro capacità. Sul tema richiamat da Imbruglia: K. Čapek, Rossum’s Universal Robots, 1923; I. Asimov, Runaround, cit.; M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, cit.; M.L. Montagnani, Flussi informativi e doveri degli amministratori di società per azione ai tempi dell’intelligenza artificiale, cit., p. 86; U. Pagallo, Vital, Sophia, and Co. – The Quest for the Legal Personhood of Robots, cit., p. 230; GPT-3, A robot wrote this entire article. Are you scared yet, human?, in The Guardian, 8 settembre 2020; G. Tamburrini, Autonomia delle macchine e filosofia dell’intelligenza artificiale, in Riv. Filos., 2017, p. 263; F. Pistelli, Algoritmi e contratti nel sistema finanziario, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, cit., p. 249; A. Z. Huq, Racial Equity in Algorithmic Criminal Justice, cit., p. 1043; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, cit., p. 71; G. Pascuzzi, Il diritto nell’era digitale, cit., p. 293; M. Luciani, La decisione robotica, cit., p. 872; C. Casadei, Per Esselunga primo job day di massa interamente virtuale, cit.; R. Kurzweil, The Singularity is Near: When Humans Transcend Biology, Viking Pr, 2005; N. Bostrom, Superintelligenza, Tendenza. Pericoli. Strategia, cit., 2018; L. B. Solum, Legal Personhood for Artificial Intelligences, cit., p. 1231; L. Floridi, Should we be afraid of AI?, cit.; G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit., p. 19; P. Femia, Introduzione. Soggetti responsabili Algoritmi e diritto civile, in G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit., p. 10.
  10. La letteratura sull’IA distingue tra robot tele-operati, che sono completamente controllati dall’uomo, robot autonomi, che seguono un programma di comportamento senza intervento umano, e robot cognitivi, che possono auto-programmarsi, pianificare e apprendere dall’esperienza. I due tratti più rilevanti dell’IA odierna sono l’autonomia, definita come la capacità di prendere decisioni e agire indipendentemente dal controllo esterno, e la capacità cognitiva, che indica l’abilità di apprendere dall’esperienza e prendere decisioni quasi indipendenti.
  11. Rodotà, nel contesto del diritto e delle nuove tecnologie, sosteneva che il diritto non può permettersi di ignorare le innovazioni tecnologiche, poiché queste possiedono il potenziale di sovvertire l’ordine esistente. Egli sottolineava che il diritto deve essere capace di adattarsi e confrontarsi con le nuove realtà, evitando di rassicurare artificialmente la società senza affrontare veramente le sfide poste dalle innovazioni. La clonazione della pecora Dolly nel 1997 viene utilizzata come esempio per illustrare come le nuove tecnologie possano mettere in discussione principi fondamentali e richiedere una risposta normativa adeguata. Rodotà riteneva che il diritto non potesse distogliere lo sguardo dalle innovazioni che sfidano il monopolio naturale sulla creazione della vita, e che sia un errore grave non provvedere a regolamentare tali novità o farlo solo per rassicurare la società. In definitiva, per Rodotà, il diritto deve essere dinamico e adattabile, capace di dare forma alle innovazioni tecnologiche per garantire la tutela dei diritti fondamentali e la sua effettiva capacità regolativa; cfr. S. Rodotà, La vita e le regole, Feltrinelli, Milano, 2018; Id., Sul buon uso del diritto e i dilemmi della clonazione in Riv. crit. dir. privato, 1999, p. 561; Id., Il diritto di avere diritti, Laterza, Roma-Bari, 2017, pp. 351-352.
  12. La distinzione tra IA e machine learning è analoga a quella tra scienza e tecnologia: convivono proficuamente ma non coincidono. Questa analogia aiuta a distinguere tra impatto scientifico e impatto sociale dell’IA.

    H. Hosni, A. Vulpiani, Algoritmi e previsioni, in Sistemi intelligenti, Rivista quadrimestrale di scienze cognitive e intelligenza artificiale, XXXV, 1, 2023, pp. 143 ss.

  13. G. Sartor, L’intelligenza artificiale e il diritto, Giappichelli, Torino, 2022, pp. 2-3.
  14. Ibidem.
  15. Le tecnologie basate sull’intelligenza artificiale comprendono vari campi avanzati. Il machine learning, per esempio, automatizza la creazione di modelli analitici permettendo ai sistemi di apprendere dai dati. Il deep learning, una sottocategoria del machine learning, emula il processo di apprendimento umano tramite reti neurali complesse. Il natural language processing (NLP) aiuta i computer a comprendere e interpretare il linguaggio naturale umano, migliorando la comunicazione uomo-macchina. La computer vision permette ai computer di analizzare e interpretare immagini e video, abilitando applicazioni come il riconoscimento facciale e la guida autonoma. La robotica integra l’IA per sviluppare robot capaci di eseguire compiti specifici in modo autonomo. Oltre a queste, ci sono i recommender systems, che suggeriscono contenuti personalizzati agli utenti, il riconoscimento vocale, che trascrive e interpreta il linguaggio parlato, i sistemi autonomi come veicoli e droni, l’IA generativa, che crea nuovi contenuti, e i sistemi esperti, che simulano il processo decisionale umano in specifici domini di conoscenza. Queste tecnologie ampliano notevolmente il campo di applicazione dell’IA, trasformando settori come la sanità, l’automazione industriale, la finanza e l’intrattenimento.
  16. G. Sartor, L’intelligenza artificiale e il diritto, cit.
  17. A. Iyer, Is OI the New AI? Questions Surrounding “Brainoware”, in Harvard Journal of Law and Technology, 2024, disponibile al link https://blog.petrieflom.law.harvard.edu/2024/03/13/is-oi-the-new-ai-questions-surrounding-brainoware/; Id., R&D Mini-Me? New Legal Questions for Organoids, in Harvard Journal of Law and Technology, 2024, disponibile al link https://blog.petrieflom.law.harvard.edu/2024/02/26/rd-mini-me-new-legal-questions-for-organoids/.
  18. Ad esempio, il professor Dan Nicolau della McGill University (Canada) ha creato un sistema elettronico basato sull’adenosina trifosfato (ATP), una molecola presente in tutti gli organismi viventi che fornisce energia a tutte le cellule. In questo caso, i soliti elettroni nei circuiti elettronici vengono sostituiti da piccole catene proteiche che utilizzano l’ATP come propellente.
  19. L. Smirnova, B.S. Caffo, D.H. Gracias, Q. Huang, I.E. Morales Pantoja, B. Tang, D. J. Zack, C.A. Berlinicke, J. Lomax Boyd, T.D. Harris, E.C. Johnson, B.J. Kagan, J. Kahn, A.R. Muotri, B.L. Paulhamus, J.C. Schwamborn, J. Plotkin, A.S. Szalay, J.T. Vogelstein, P.F. Worley, T. Hartung, Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish, in Frontiers in Science, 1, 2023, disponibile al link https://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235.
  20. Ibidem.
  21. Ibidem.
  22. V. Surya Teja, P. Mahajan, Organoid Intelligence: A New Paradigm in Biocomputing and AI Integration, in International Journal of Research Publication and Reviews, disponibile su www.ijrpr.com.
  23. Ibidem.
  24. Ibidem.
  25. Thomas Hartung è Professor of environmental health sciences alla Johns Hopkins Bloomberg School of Public Health and Whiting School of Engineering.
  26. R. Molar Candanosa, Could future computers run on human brain cells?, in Hub, 2023, disponibile al link https://hub.jhu.edu/2023/02/28/organoid-intelligence-biocomputers/.
  27. «Pluripotent Stem Cell: Hematopoietic progenitors are defined as undifferentiated pluripotent stem cells that are capable of self-renewal and can differentiate into all blood cell types, as well as lineage-committed progenitors that have a limited capacity for self-renewal and are thus committed to a specific cell lineage», tratto da Eosinophils in Health and Disease, 2013, disponibile al link https://www.sciencedirect.com/topics/immunology-and-microbiology/pluripotent-stem-cell.
  28. A. Iyer, Is OI the New AI? Questions Surrounding “Brainoware”, cit.
  29. L. Smirnova, I.E. Morales Pantoja, T. Hartung, Organoid intelligence (OI) – the ultimate functionality of a brain microphysiological system, in ALTEX 40, pp. 191–203. Doi: 10.14573/altex.2303261.
  30. Ibidem.
  31. È una tecnica che usa le cellule staminali per studiare l’evoluzione genetica delle malattie e nel caso gli organoidi derivati dai pazienti potrebbero replicare le caratteristiche patologiche associate ai disturbi neurologici e consentire lo screening di potenziali terapie.
  32. Le reti di neuroni biologici potrebbero essere capaci di elaborazioni specializzate che superano l’attuale IA in determinati compiti. I sistemi IO potrebbero integrare l’hardware al silicio.
  33. Le interfacce cervello-macchina bidirezionali basate su elementi OI potrebbero abilitare nuove tecnologie assistive e una simbiosi avanzata tra umani e computer.
  34. I controllori organoidi potrebbero conferire alle macchine capacità di apprendimento e decision making più flessibili nel mondo reale.
  35. Gli organoidi maturi combinati con supporti e vascolarizzazione potrebbero consentire innesti di tessuto per riparare lesioni cerebrali.
  36. T. Hartung, I.E. Morales Pantoja, L. Smirnova, Brain organoids and organoid intelligence from ethical, legal, and

    social points of view, in Front. Artif. Intell, 2024, disponibile al link https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2023.1307613/full.

  37. M. Kataoka, T.L. Lee, T. Sawai, The legal personhood of human brain organoids, in Journal of Law and the Biosciences, pp. 1–13, disponibile al link https://doi.org/10.1093/jlb/lsad007.
  38. Ibidem.
  39. A. Lavazza, F. G. Pizzetti, Human Cerebral Organoids as a New Legal and Ethical Challenge, in Journal of Law and the Biosciences, pp. 1–22, disponibile al link https://air.unimi.it/retrieve/dfa8b9a2-79fe-748b-e053-3a05fe0a3a96/lsaa005.pdf.
  40. S. Ripken, Corporate Personhood, Cambridge University Press, Cambridge, 2019, p. 301.
  41. S. Baldin, Il buen vivir nel costituzionalismo andino, Giappichelli, Torino, 2019.
  42. La questione della personalità elettronica per le intelligenze artificiali (IA) è un tema di dibattito complesso e controverso che coinvolge diverse posizioni nella dottrina giuridica. Daniela Imbruglia evidenzia come l’attribuzione di una piena personalità elettronica alle IA sollevi numerosi dubbi e preoccupazioni. Una delle critiche principali riguarda la possibilità che tale riconoscimento possa costituire un ostacolo formale nell’individuazione dell’effettivo responsabile in caso di danni causati dall’IA, configurando un potenziale abuso della personalità giuridica.

    La discussione sulla personalità elettronica non è nuova e trae origine da una riflessione più ampia sulla capacità delle tecnologie digitali di innovare il discorso giuridico. Alcuni autori, come L.B. Solum, hanno sostenuto l’attribuzione della personalità giuridica alle IA già nel 1992, un periodo in cui le tecnologie erano molto meno avanzate rispetto a oggi. Tuttavia, la possibilità di una macchina pienamente autonoma è ancora distante, e nessuna IA ha mai raggiunto i tratti distintivi dell’intelligenza umana.

    Una delle posizioni critiche più rilevanti è quella espressa da G. Teubner e contenuta in una lettera aperta alla Commissione Europea, dove si evidenzia il rischio di utilizzare i robot come scudi di responsabilità, proteggendo così i veri responsabili dietro una facciata giuridica. Teubner sottolinea che l’attribuzione di personalità giuridica agli agenti digitali deve essere trattata con cautela e critica l’idea che l’IA possa mimare l’intelligenza umana al punto da giustificare un’equiparazione alla persona.

    Al contrario, altri autori come U. Pagallo sostengono una visione più sfumata, riconoscendo una capacità e una soggettività parziale alle IA. Pagallo argomenta che, sebbene le IA non possano provare emozioni o avere una coscienza, possono comunque essere soggetti di diritti e doveri in modo limitato e specifico, contribuendo così a colmare le lacune normative esistenti. Cfr. D. Imbruglia, L’intelligenza artificiale e le regole. Appunti, cit.; L.B. Solum, Legal Personhood for Artificial Intelligences, in North Carolina Law Review, 1992, p. 1231; G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit.; U. Pagallo, The Law of Robots. Crime, Contracts and Torts, Springer, Dodrecht-Heidelberg-New York-London, 2013, p. 103; P. Femia, Introduzione. Soggetti responsabili Algoritmi e diritto civile, in G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit., p. 10).

  43. La questione della responsabilità elettronica è ampiamente dibattuta all’interno della dottrina, con posizioni che variano significativamente. Da un lato, vi è una corrente conservatrice che sostiene che le norme giuridiche esistenti siano sufficienti a regolamentare anche le nuove tecnologie. Questa visione, nota come “Law of the Horse”, afferma che non ci sia bisogno di una regolamentazione specifica per l’intelligenza artificiale, poiché le regole generali del diritto sono in grado di coprire qualsiasi nuova innovazione tecnologica ( «…the best way to learn the law applicable to specialized endeavors is to study general rules. Lots of cases deal with sales of horses; others deal with people kicked by horses; still more deal with the licensing and racing of horses, or with the care veterinarians give to horses, or with prizes at horse shows. Any effort to collect these strands into a course on ‘The Law of the Horse’ is doomed to be shallow and to miss unifying principles», cfr. F.H. Easterbrook, Cyberspace and the Law of the Horse, in Univ. Chi. Legal. Forum, 1996, p. 207).

    Dall’altro lato, troviamo la posizione adeguatrice, che riconosce la necessità di adattare e, in alcuni casi, creare nuove norme giuridiche per affrontare le specificità dell’IA. Questa corrente critica il fatto che le attuali normative, come la direttiva europea sui prodotti difettosi, non riescano a gestire efficacemente i rischi posti dai robot autonomi e dai sistemi di IA dotati di capacità di autoapprendimento. Tali sistemi, infatti, possono compiere azioni imprevedibili, rendendo difficile individuare il responsabile effettivo per eventuali danni causati (A. Bertolini, Artificial Intelligence and Civil Liability, European Parliament, Bruxelles, 2020, p. 31).

    La dottrina propone diverse soluzioni per colmare queste responsibility gaps. Una delle proposte più interessanti è quella di Gunther Teubner, che suggerisce di attribuire ai robot una sorta di soggettività giuridica parziale, trattandoli come ausiliari del loro proprietario o principale. In questo modo, il principale sarebbe responsabile per gli inadempimenti della macchina, anche quando non imputabili a negligenza umana (G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, cit., p. 84).

    Altri autori, come Ugo Pagallo, sostengono la necessità di sviluppare regolamenti ad hoc per assicurare che le norme giuridiche siano adeguate alle specifiche innovazioni tecnologiche, evitando soluzioni vaghe e troppo generali (U. Pagallo, Intelligenza Artificiale e diritto. Linee guida per un oculato intervento normativo, in Sist. Intell., 2017, p. 617). Inoltre, si discute l’importanza di estendere il principio di spiegabilità, già presente nel GDPR, anche alle applicazioni di IA, per garantire trasparenza e responsabilità nel funzionamento degli algoritmi (U. Pagallo, Algoritmi e conoscibilità, in Riv. fil. Dir., 2020, p. 101).

  44. Insoo Hyun è un filosofo specializzato nell’analisi delle questioni etiche e filosofiche legate alla ricerca sugli organoidi cerebrali. Si v. L. Gibson, A Bioethics View of Brain Organoids. Philosopher Insoo Hyun on one of the fastest moving fields in science, in Harvard Magazine, Faculty & Research, 2023, disponibile al link https://www.harvardmagazine.com/2023/06/bioethics-brain-organoids.
  45. L. Smirnova, B.S. Caffo, D.H. Gracias, Q. Huang, I.E. Morales Pantoja, B. Tang, D. J. Zack, C.A. Berlinicke, J. Lomax Boyd, T.D. Harris, E.C. Johnson, B.J. Kagan, J. Kahn, A.R. Muotri, B.L. Paulhamus, J.C. Schwamborn, J. Plotkin, A.S. Szalay, J.T. Vogelstein, P.F. Worley, T. Hartung, Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish, cit.
  46. Marc Andreessen, fondatore della società di venture capital a16z, ritiene che l’intelligenza artificiale «salverà il mondo» e sarà l’ultima invenzione di cui l’essere umano avrà bisogno: quella che ci permetterà di creare una società utopistica basata sulla cosiddetta «economia dell’abbondanza», cfr. A. D. Signorelli, Il pericoloso mito della superintelligenza artificiale, L’AI tra aspettative irrealistiche e minacce esistenziali dopo il summit mondiale di Londra, in Treccani. Il Tascabile, 2023, disponibile al link https://www.iltascabile.com/scienze/superintelligenza-artificiale/.
  47. P. Davies, EU AI Act reaction: Tech experts say the world’s first AI law is “historic” but “bittersweet”, in Euronews, 2024, disponibile al link https://www.euronews.com/next/2024/03/16/eu-ai-act-reaction-tech-experts-say-the-worlds-first-ai-law-is-historic-but-bittersweet.
  48. F. Porzio, AI Act, il rischio di danneggiare l’innovazione in Ue, in Agenda Digitale, 2024.
  49. Il considerando 25 del Regolamento tratta dell’esclusione delle attività di ricerca e sviluppo (R&S) dall’ambito di applicazione del regolamento stesso, al fine di sostenere l’innovazione e rispettare la libertà della scienza. In particolare, si specifica che i sistemi e i modelli di IA sviluppati esclusivamente per scopi scientifici di R&S non sono soggetti alle disposizioni del regolamento fino a quando non vengono immessi sul mercato o messi in servizio. Tuttavia, una volta che tali sistemi entrano sul mercato, devono conformarsi alle normative del regolamento. L’esclusione non si applica agli spazi di sperimentazione normativa e alle prove in condizioni reali. Inoltre, le attività di R&S devono essere conformi alle norme etiche e professionali riconosciute e al diritto dell’Unione applicabile.

Andrea Crismani

Professore Ordinario di Diritto Amministrativo, nell'Università degli Studi di Trieste.