Regolamentare l’Intelligenza artificiale. L’approccio “orizzontale”, scelto dall’Ue, non convince il giurista Andrea Bertolini del Sant’Anna di Pisa ChatGPT è diversa da un’auto a guida autonoma. Ma l’Europa ha urgenza di decidere: USA e Cina incalzano

Regolamentare l’Intelligenza artificiale. L’approccio “orizzontale”, scelto dall’Ue, non convince il giurista Andrea Bertolini del Sant’Anna di Pisa

ChatGPT è diversa da un’auto a guida autonoma. Ma l’Europa ha urgenza di decidere: USA e Cina incalzano

Entro la fine di quest’anno, i Paesi dell’Unione europea (Ue) dovrebbero approvare un testo di legge definitivo che assicuri il rispetto dei diritti fondamentali e dei valori riconosciuti dall’Ue nel contesto dell’IA e di tutte le sue possibili applicazioni.
Gli stati membri sono attualmente coinvolti in colloqui, o triloghi, sulla base della posizione negoziale sul cosiddetto Artificial Intelligence Act adottato Parlamento europeo approvato il 14  giugno scorso.  

L’impostazione adottata dall’Ue non convince però Andrea Bertolini, docente di diritto privato presso la Scuola superiore Sant’Anna di Pisa, perché “L’Ue ha deciso di adottare, almeno per il momento, una regolamentazione di tipo orizzontale,  che con un’unica norma vuole regolamentare tutti i possibili tipi di applicazione. Questo tipo di approccio a mio avviso è particolarmente problematico.” 

Dal 2021 il problema ha subito una brusca accelerazione 

I lavori erano iniziati già ad aprile del 2021, quando la Commissione europea aveva per la prima volta proposto un legal framework (quadro giuridico) per la regolamentazione dell’IA, partendo dal classificare le sue possibili applicazioni in quattro categorie di rischio: inaccettabile, alto, limitato, minimo. 

Si parla di “rischio” riferendosi al contesto dei diritti umani fondamentali degli utenti e al fatto che questi possano essere o meno violati da specifici impieghi o tecnologie collegati al vasto mondo dell’IA.

Andando ancora più indietro nel tempo, risale in realtà a marzo del 2018 il primissimo comunicato stampa redatto a Bruxelles riguardante questo tema, intitolato “Intelligenza artificiale: la Commissione dà il via ai lavori per coniugare tecnologia all’avanguardia e standard etici”. 

Risulta ancora incredibilmente attuale la dichiarazione allora rilasciata da Carlos Moedas, commissario per la Ricerca, la scienza e l’innovazione all’interno della Commissione: “L’intelligenza artificiale si è trasformata rapidamente da una tecnologia digitale per addetti ai lavori a una tecnologia molto dinamica, con un ruolo chiave e con un potenziale di creazione di mercato. Tuttavia, come possiamo sostenere questi cambiamenti tecnologici con una posizione etica solida? Si tratta di capire in quale società vogliamo vivere.”

L’approccio “orizzontale” scelto dall’Ue

Dal punto di vista della regolamentazione esistono due approcci possibili, spiega Bartolini,: quello orizzontale, che con un’unica norma vuole regolamentare tutte le possibili articolazioni di una certa tecnologia, e quello verticale, che invece prevede normative diverse in base al campo di applicazione della stessa. 

Ora, l’IA è costituita da una vastissima serie di applicazioni e tecnologie differenti, che in quanto tali vengono utilizzate in ambiti molto diversi fra loro. Pensiamo ad esempio di comparare ChatGPT con un veicolo a guida autonoma, in grado cioè di muoversi su una strada senza richiedere necessariamente l’intervento umano: si tratta in entrambi i casi di applicazioni di IA, che riguardano tuttavia ambiti completamente diversi, anche e soprattutto dal punto di vista giuridico. 

“I problemi che pone un veicolo autonomo sono diversissimi dai problemi che pone ChatGPT – afferma Bertolini -, mettere tutto insieme sotto un’unica regolamentazione probabilmente non è una mossa vincente.” 

Andrea Bertolini, docente di diritto privato presso la Scuola Superiore Sant’Anna di Pisa (©santannapisa.it)

E questi sono solo due degli infiniti esempi di applicazione dell’IA che si potrebbero fare.

L’urgenza di regolamentare l’IA e la ricerca dell’ “effetto Bruxelles”

Le problematiche legate a un approccio orizzontale probabilmente non sono invisibili agli occhi dell’UE, ma un sistema verticale sicuramente richiederebbe molto più tempo e riflessione. La questione della regolamentazione delle IA è invece urgente e molti Paesi si stanno attivando in questo senso.

A tal proposito, Bertolini ipotizza che l’Ue abbia deciso di muoversi con una certa solerzia sul tema della regolamentazione dell’IA anche spinta da ragioni politiche, nel tentativo di ottenere un nuovo “effetto Bruxelles. “È quello che abbiamo osservato – prosegue – con il regolamento sulla privacy, il cosiddetto GDPR, con il quale noi abbiamo di fatto stabilito uno standard che si sta imponendo a livello globale, perché chiunque voglia fare affari coi cittadini europei all’interno del mercato europeo deve conformarsi a questa disciplina normativa. Questo ha creato anche una spinta in molti Paesi a conformarsi o ad adottare delle discipline normative convergenti. Quindi, diciamo, il GDPR è diventato una sorta di standard a cui fare riferimento.”

Con l’intelligenza artificiale, spiega ancora Bertolini, la scommessa che sta facendo l’Europa è abbastanza simile: “non è un’idea sbagliata, soprattutto dal punto di vista di quello che viene definito realismo giuridico”, che considera il diritto come una scienza sociale e mira a comprenderne (anche) le implicazioni politiche. 

“Se ci mettiamo in una simile prospettiva – afferma il docente- , l’Artificial Intelligence Act è una risposta molto elaborata dalla Commissione europea a quello che veniva percepito fino a quel momento come un gioco a due fra Stati Uniti e Cina. 

Perché mentre nella robotica l’Europa gioca un ruolo di primissimo piano, l’IA è sostanzialmente basata sull’elaborazione di enormi quantità di dati complessi, e i giocatori in campo che hanno maggiori capacità in questo senso sono appunto gli Stati Uniti da un lato e la Cina dall’altro. Con l’Artificial Intelligence Act l’Ue vuole inserirsi in questa battaglia.”

E tutto sommato questa visione è anche quella che emerge da alcune delle note di aggiornamento rilasciate da Bruxelles durante il percorso che ha portato alla formulazione di una posizione negoziale sull’Artificial Intelligence Act: “Il regolamento sull’IA farà in modo che gli europei possano fidarsi [delle applicazioni, nda] dell’IA che utilizzano” si legge in una nota introduttiva alla proposta di regolamento pubblicata nell’Aprile del 2021: “Il regolamento è anche la chiave per costruire un ecosistema di eccellenza nell’IA e rafforzare la capacità dell’EU di competere a livello globale.”

Non solo una questione politica, regolamentare l’IA prima che sia troppo diffusa 

Ma c’è di più. L’urgenza di inserire l’IA e le sue possibili applicazioni all’interno di un riferimento normativo deriva anche dalle difficoltà che emergono quando ci si trova a regolamentare uno strumento già ampiamente diffuso. 

“Negli Stati Uniti – conclude Bertolini –  il Congresso sta cercando di porre dei limiti a TikTok perché a tratti viene percepito come una minaccia, sia dal punto di vista dei modelli che promuove fra i giovani, ma anche per quanto riguarda la possibilità per la Cina di sfruttarlo per acquisire dati anche molto rilevanti sugli statunitensi. Ma l’utilizzo di TikTok è ormai talmente diffuso che provare a porre dei limiti è praticamente impossibile. Si è venuta cioè a creare una sorta di dipendenza che è sostanzialmente invincibile anche dalla volontà del regolatore nazionale.”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *