All’Europa il primato sulla regolamentazione dell’Intelligenza Artificiale con l’AI Act.

Tu sei qui:

Il Parlamento europeo traccia il solco della futura regolamentazione sull’uso dell’Intelligenza Artificiale nel rispetto dei diritti e dei valori dell’Unione Europea.

In più articoli ho sottolineato come l’Intelligenza Artificiale dia un impulso fondamentale alla produttività del Paese e sia una potente leva di competitività. Ho anche spiegato la rilevanza degli algoritmi di profilazione e relativi imperativi etici senza trascurare gli aspetti di diritto d’autore e dell’impatto della I.A. e della Blockchain sulle opere dell’ingegno.  

Dell’importanza della I.A. in più settori produttivi non si è accorto solo il MISE Ministero dello Sviluppo Economico, che nel mese di luglio 2019 ha redatto il White Paper sulla “Strategia Nazionale per l’Intelligenza Artificiale”.

Il Parlamento europeo infatti, in data 14 giugno 2023, ha dato il via libera alla regolamentazione sull’Intelligenza Artificiale approvando l’Artificial Intelligence Act. Si tratta della prima tappa della prima normativa sulla I.A., la cui approvazione definitiva con entrata in vigore avverrà entro il 2025.

Occorre che Parlamento europeo, Consiglio dell’Unione europea e Commissione europea trovino ora un accordo sui dettagli della regolamentazione prima che il disegno di legge diventi legislazione, un lavoro che richiede un tempo non breve.

Essendo la prima regolamentazione sull’I.A. al mondo, intesa cioè a regolare in modo uniforme lo sviluppo, la commercializzazione e l’uso dei sistemi di IA in conformità con i valori e i diritti dell’UE, si consolida la posizione dell’UE come leader globale sulla regolamentazione tecnologica, dando l’esempio per le altre legislazioni del mondo.

In pratica, grazie a tale regolamentazione, i modelli di Intelligenza Artificiale generativa, come ChatGPT di OpenAI e Bard di Google, sarebbero autorizzati a operare a condizione che i loro risultati siano chiaramente etichettati come generati dall’IA.

Da sottolineare è lo spirito di fondo della neonata regolamentazione, volto a prevenire la discriminazione e a proteggere i diritti umani: il Parlamento ha infatti  votato in favore della proposta di  vietare la categorizzazione biometrica sulla base di caratteristiche sensibili, come la sessualità percepita, il genere, la razza o l’etnia e il riconoscimento delle emozioni nei contesti educativi e nei luoghi di lavoro.  

Il sistema di IA è stato inquadrato dal testo – approvato dal Parlamento UE, all’ art. 3 – come “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti, previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”.

L’AI Act segue quindi l’approccio antropocentrico della regolamentazione, definendo i livelli di rischio associati all’impatto dei diversi sistemi di intelligenza artificiale sulla vita delle persone e suoi loro diritti fondamentali, dal lavoro alla salute fino alla sicurezza: “Scopo del presente regolamento è promuovere l’adozione di un’intelligenza artificiale antropocentrica e affidabile e garantire un elevato livello di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto e dell’ambiente dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo allo stesso tempo l’innovazione”.

Questa prima regolamentazioneclassifica le applicazioni dell’IA in quattro livelli di rischio: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo. Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e sono soggetti a severi requisiti.

L’uso dell’identificazione biometrica a distanza in spazi accessibili al pubblico a fini di contrasto è, in linea di principio, vietato, con salvezza di specifiche eccezioni riguardanti la sicurezza pubblica e gli atti di terrorismo.

Di contro, rientra nella categoria del rischio minimo tutto ciò che riguarda applicazioni come videogiochi abilitati all’intelligenza artificiale o filtri antispam o bot di piattaforme di social web, sempre nel rispetto della sicurezza, della trasparenza, della tracciabilità delle operazioni.

Auspichiamo che si arrivi presto ad un codice di condotta condiviso tra UE e USA – già dotatasi di un meno dettagliato ma pur sempre significativo Algorithmic Accountability Act – per l’armonizzazione a livello globale delle pratiche aziendali legate ai sistemi di intelligenza artificiale, garantendone un utilizzo sicuro, etico e trasparente.

Rapallo, 20. 8.2023
Avv. Giovanni Bonomo – AL C.I.O. – Diritto24

image_pdfScarica articolo in formato PDF