Più trasparenza, meno rischi, più partecipazione, meno pericoli. Queste dovrebbero essere le parole chiave che guidano gli intenti della nuova legge europea sull’intelligenza artificiale nata con l’obiettivo di rendere obbligatorie le buone pratiche connesse ai suoi usi.
Il Consiglio ha fatto l’ultimo passaggio approvativo il 21 maggio 2024, entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile due anni dopo.
Invece i divieti saranno effettivi dopo sei mesi e dopo dodici sarà la volta delle norme di gestione e degli obblighi per i modelli di IA per uso generale. Infine, le norme per i sistemi di IA – integrati in prodotti regolamentati – si applicheranno dopo trentasei mesi.
Questo documento normativo è il primo al mondo a regolare l’uso dell’IA o, meglio, le sue applicazioni e i casi d’uso specifici. Stati Uniti, Giappone, Canada, Cina sono fra i Paesi che hanno sviluppato pratiche di gestione di questo potentissimo strumento, ma l’Europa, prima fra tutti, arriva con una legge.
Le norme non si applicheranno alla ricerca, ma daranno l’indirizzo a quelle che sono le pratiche di utilizzo. Il regolamento risulta facilmente adattabile e non interviene nella tecnologia, per concentrarsi, invece, sui casi d’uso.
Con questo approccio cerca di evitare una rapida obsolescenza e si fa promotore di quelli che sono valori da difendere per gli abitanti dell’unione europea: libertà, salute, sicurezza. L’aspetto etico non è quindi secondario, anche se l’impostazione che scaturisce dal documento ha aperto alcune discussioni.
La tutela dei diritti e la questione della responsabilità
Enrico Maestri, che all’università di Ferrara è titolare degli insegnamenti di Diritto informatico e Etica e diritto dell’Intelligenza artificiale, nell’articolo presente in questo dossier, evidenzia le preoccupazioni, espresse da alcuni critici, relative al fatto che i diritti umani siano considerati in maniera marginale, benché i sistemi di IA impattino su di essi ad ampio raggio. Proprio per questo le organizzazioni per i diritti civili chiedono restrizioni ancora più ampie sull’uso dei sistemi di IA unitamente a valutazioni più approfondite dei rischi e della trasparenza.
Per creare fiducia nell’IA, l’affidabilità non viene disgiunta dalla esplicabilità. In pratica ciò che è intelligibile porta con sé una responsabilità etica. Per questo, almeno in parte, la legge prevede che bisognerà rendere leggibili i black box model, quei sistemi che, simili a delle scatole nere, sono generalmente comprensibili solo per quelli che sono gli output in uscita.
Ebbene, sembra che ora le aziende e gli sviluppatori saranno costretti a dichiarare in maniera trasparente (white box model) le caratteristiche di funzionamento di un sistema.
Maestri, a questo proposito, ci ricorda che, sulla base dell’articolo 25 dell’AI Act: “i fornitori di sistemi di IA sono responsabili della conformità ai requisiti dell’AI Act. Questo principio mira a garantire che le aziende che sviluppano e commercializzano sistemi di IA siano responsabili delle loro azioni e dei potenziali rischi associati ai loro prodotti.”
Una sedia a rotelle con IA comporterà obblighi per il costruttore
Prendiamo l’esempio di una sedia a rotelle autonoma, che può essere considerata un modello di robot collaborativo (una macchina robotica dotata di AI che collabora e aiuta l’umano nell’espletamento di alcune funzioni), e immaginiamo che sia equipaggiata con telecamere, sensori, strumenti meccanici e software.
Ovviamente questi dovranno rispondere a determinati requisiti perché la sedia possa essere utilizzata tranquillamente. Ma non basta. Con l’entrata in vigore dell’AI Act dovrà essere reso leggibile il loro funzionamento intrinseco.
Al costruttore verrà inoltre chiesto di declinare le situazioni operative in cui si muove questa sedia per risolvere i diversi livelli di rischio. In pratica sarà necessario esplicitare ex ante le decisioni che stanno alla base di quel modello e se emergono riscontri negativi nella fase di utilizzo sarà necessario che vengano rivisti gli algoritmi.
Una responsabilità non da poco per le aziende produttrici, che si troveranno a interagire con diversi livelli normativi nella fase di progettazione, costruzione e commercializzazione.
Adeguamento e formazione: quale supporto verrà fornito dall’Europa?
Questo aspetto scopre il fianco a numerose criticità. Le aziende produttrici, specie quelle più piccole, potrebbero non essere in grado di adeguarsi rapidamente ai cambiamenti normativi e alle esigenze di trasparenza tecnologica.
Potrebbero persino essere in difficoltà a esercitare in maniera adeguata quella supervisione umana che l’Europa, con l’AI Act, considera imprescindibile. Inoltre, in un contesto globalizzato, le differenze normative tra diversi Paesi sembrano essere un ostacolo non da poco. La responsabilità dell’autovalutazione lasciata alle aziende, anziché prevedere un controllo affidato a terzi, sembra quindi gravare parecchio sulla filiera produttiva e sul sistema di commercializzazione (import- export).
Ci si chiede allora: quale supporto formativo concreto e quale accompagnamento verrà fornito dall’Europa accanto alle disposizioni normative prescrittive? Se queste avranno effetti rapidi, la formazione, si sa, ha tempi molto più lunghi. E ancora non ci sono gli standard su cui lavorare perché tutto deve ancora essere sistematizzato.
Sanità, giustizia e non discriminazione sono nodi cruciali
Per di più, concentrarsi sui casi d’uso implica anche un discreto margine di incertezza, specie quando i campi di applicazione sono cruciali. Per esempio, nel rapporto medico paziente o nell’amministrazione della giustizia. Qui evitare il problema dell’inganno e garantire l’equità sarà fondamentale assicurando la supervisione umana. Ma sarà possibile farlo senza rischi?
Se il caregiver è un robot con sembianze umane, quale rapporto emotivo e identitario si instaurerà fra l’umano e la macchina? Se gli strumenti di intelligenza artificiale, prima dell’intervento del giudice umano analizzano i dati giuridici, come sono settati e chi garantisce il superamento dei bias algoritmici in fase di processo?
Queste e altre sono le questioni aperte. Non tutto potrà essere risolto by design, in fase di progettazione, ma richiederà dei tempi di adattamento e revisione.
Se, per esempio, dovrà essere impedito alle macchine intelligenti di scartare le donne per certi lavori (pensiamo a quelli più faticosi che, secondo uno stereotipo, vengono affidati agli uomini), evitando così una discriminazione algoritmica, questo dovrà essere fatto in fase di allenamento algoritmico. Chi se ne farà carico? Con quali responsabilità? Uno dei concetti chiave su cui si concentra il documento è, non a caso, quello di inclusività e non discriminazione.
Saranno i luoghi di formazione per eccellenza come le università a dover fare una verifica di impatto sui diritti fondamentali. Ma certo non sarà sufficiente.
L’IA tra esclusioni, divieti e rischi
L’intelligenza artificiale come bene d’uso dovrebbe inoltre, almeno negli intenti, essere disponibile per tutti. Ma davvero a prescindere dall’età, dalla classe sociale, dal grado di istruzione e di disponibilità economica, sarà possibile coinvolgere il pubblico secondo quei principi di giustizia sociale che sono un pilastro dei valori europei? Oppure una fascia di popolazione non sufficientemente coinvolta e formata verrà marginalizzata?
Per ora quello che è stato reso esplicito sono i divieti e ciò che sta fuori dall’AI Act. I sistemi militari, infatti, sono esclusi dalla sua trattazione e non c’è un capitolo sulle armi. Uno dei temi caldi con la guerra ai confini dell’Europa non trova quindi, in questo contesto, un luogo di discussione e regolamentazione delle applicazioni. Ecco perché molti critici, come sottolinea Maestri, rispetto a quella che sembra essere una potenziale lacuna giuridica, chiedono che venga fatta chiarezza su quale debba essere l’applicabilità dell’AI Act da parte delle agenzie di sicurezza e di intelligence nazionali che per ora sembrano esserne esentate.
E se queste organizzazioni operano ex lege c’è da chiedersi: un sistema militare dotato di intelligenza artificiale può o meno decidere autonomamente della vita e della morte degli umani?
Fuori dall’AI Act resta anche il sistema dell’automotive, che non è regolamentato. Non si entra nell’auto, ma ci si limita ai casi d’uso. Sarà necessario però stabilire di chi è la responsabilità in caso di incidenti con veicoli a guida autonoma e come verranno risarciti i danni.
Più chiari ma non meno problematici sembrano essere i divieti. Semaforo rosso alla sorveglianza di massa e al riconoscimento biometrico negli spazi pubblici, idem per la polizia predittiva individuale, che predice su basi ambientali e sociali il grado di rischio potenziale di cui alcuni individui potrebbero essere portatori. In Italia, per esempio, verrà interrotta la sperimentazione. No, anche al riconoscimento delle emozioni sui luoghi di studio e lavoro. E no al credito su base sociale.
Questi alcuni degli esempi più rilevanti. Il freno normativo all’uso dell’AI si basa infatti su quattro livelli di rischio: inaccettabile, alto, limitato, minimo o nullo.
A questo proposito, rileva ancora Maestri, i critici mettono in evidenza che la partecipazione democratica risulta poco stimolata: “molti sistemi ad alto rischio potrebbero essere consentiti e legittimati dall’AI Act, anche se non sono stati adeguatamente testati e dibattuti pubblicamente […].” E questo, per esempio, emergerebbe nel caso di articoli che non possono essere modificati se non attraverso un iter europeo complesso, tanto da non consentire facilmente la possibilità di consultazione e partecipazione democratica da parte dei cittadini per essere rivisti. In questo modo si esclude l’esercizio di una verifica tempestiva da parte della cittadinanza attiva.
Il livello di rischio inaccettabile si riferisce al controllo sociale, mentre il rischio elevato limita le eccezioni a casi come la ricerca di un minore scomparso, la prevenzione di una minaccia terroristica o di gravi reati. Tuttavia, l’uso dell’IA, in questo caso, dovrà essere autorizzato da un organo giudiziario per un tempo, un’area e una banca dati specifica. Il rischio limitato è infine legato alla trasparenza nell’uso dell’IA, per garantire che gli utenti comprendano i contenuti e che i fornitori forniscano un chiaro riconoscimento. Ma anche in questi ambiti il livello di rischio può essere discutibile e interferire con l’esercizio dei diritti (alla sicurezza, alla privacy, ecc…).
In conclusione, se è vero che questa legge è il risultato di un lungo lavoro preparatorio e che risponde direttamente alla proposta dei cittadini che hanno partecipato alla Conferenza sul futuro dell’Europa (COFE), in particolare puntando al rafforzamento della competitività dell’Unione nei settori strategici e alla costruzione di una società sicura e affidabile, più inclusiva anche grazie a un uso affidabile e responsabile dell’AI, è anche vero che le aree di incertezza sono ancora molte e molte sono le riflessioni che i cittadini responsabili sono chiamati a fare in prima persona.
Solo così sarà possibile garantire uno sviluppo sostenibile di quello che è, non solo uno strumento, ma un vero e proprio ambiente pervasivo: quello digitale in cui siamo immersi.