Intelligenza Artificiale e tutela della privatezza

Tu sei qui:

Abbiamo detto nel precedente articolo che l’Intelligenza Artificiale apporterà un impulso fondamentale per la produttività e sarà una potente leva di competitività soprattutto in vista della Società 5.0 quale esito della quarta rivoluzione industriale in atto.

Abbiamo inoltre indicato i 7 settori chiave nei quali la I.A. interverrà secondo la strategia del MISE Ministero dello Sviluppo economico, Strategia Nazione per l’Intelligenza Artificiale che si inquadra nel Piano Coordinato Europeo per l’Intelligenza Artificiale, pensato per rendere l’Europa competitiva con gli Usa e la Cina.

La GPA Global Privacy Assembly Conferenza Mondiale dei Garanti Privacy nasce il 15 novembre 2019 quando la Conferenza Internazionale delle Autorità per la Protezione dei Dati (Declaration on Ethics and Data Protection in Artificial Intelligence) viene convertita in un organismo permanente di cui fanno parte 124 autorità che si occupano di protezione dei dati personali di oltre 80 diversi Paesi del mondo.

Il tema della conferenza, svoltasi in Albania dal 21 al 24 ottobre 2019, è stato“Convergence and connectivity raising global data protection standards in the digital age” e tra le indicazioni stabilite a livello mondiale c’è “il riconoscimento della privacy come diritto fondamentale per il buon funzionamento delle democrazie, lotta sui social media ai messaggi inneggianti al terrorismo, più intensa cooperazione tra le Autorità che tutelano i dati personali e quelle che operano a tutela dei consumatori e della concorrenza, riduzione dell’errore umano nelle violazioni dei dati”. Tra le sei risoluzioni adottate, una è proprio dedicata al digitale, ovvero la “Risoluzione per supportare e facilitare la cooperazione tra Autorità di protezione dati e le competenti autorità per la tutela dei consumatori e della concorrenza, al fine di raggiungere standard di protezione dati chiari e globalmente elevati nell’economia digitale”.

Durante l’annuale Privacy Forum 2020 che si è svolto quest’anno a fine ottobre, il Garante europeo della protezione dei dati, Wojciech Wiewiórowski, ha dichiarato in merito che la soluzione non è creare una legge apposita per l’Intelligenza Artificiale, in quanto tutto ciò che ha a che fare con la privatezza è già sotto il Regolamento generale per la protezione dei dati (GDPR) e dunque non ha bisogno di un’ulteriore specifica regolamentazione.

In effetti tecnologia e legge seguono percorsi con velocità diverse e l’incapacità della legge di anticipare,  e spesso anche di inseguire, la tecnologia è il motivo per cui l’idea di una legislazione sull’I.A. potrebbe non essere la risposta perfetta al problema.

De iure condendo bisogna valutare il potenziale impatto sui diritti umani e trovare il giusto equilibrio tra tutela della privacy e sviluppo tecnologico, perché l’I.A. ha ormai un ruolo fondamentale nella trasformazione digitale della società ed è parte integrante della vita di ogni persona.

Consideriamo anche il fatto che l’intelligenza artificiale è foriera di opportunità vantaggiose ma anche di rischi, come precisato dal Consiglio d’Europa nella raccomandazione “Unboxing artificial intelligence: 10 steps to protect human rights” del 14 maggio 2019 che si focalizza su 10 aree di interesse prioritario:

  1. Valutazione dell’impatto sui diritti umani;
  2. Consultazione pubbliche;
  3. Norme sui diritti umani nel settore privato;
  4. Informazione ne trasparenza;
  5. Supervisione indipendente;
  6. Non discriminazione e uguaglianza;
  7. Protezione dei dati e della privacy;
  8. Libertà di espressione, riunione e associazione e diritto al lavoro;
  9. Accesso e rimendi;
  10. Promozione dell’alfabetizzazione sull’intelligenza artificiale.

Lo sviluppo, la formazione, la sperimentazione e l’uso di sistemi di I.A. che si basano sul trattamento dei dati personali devono garantire il diritto al pieno rispetto della vita privata e familiare ai sensi dell’art. 8 “Diritto al rispetto della vita privata e familiare” della Convenzione europea dei diritti dell’uomo.

In quest’ottica, gli Stati membri devono attuare efficacemente, nei propri ordinamenti, la Convenzione n. 108 del 28 gennaio 1981 “Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale” per la protezione delle persone rispetto, appunto, al trattamento automatizzato dei dati personali.

I sistemi di I.A. devono sempre rimanere sotto il controllo umano anche nelle ipotesi in cui tali sistemi si rivelino in grado di prendere decisioni indipendenti da uno specifico intervento umano.

Ogni responsabilità deve sempre ricadere su una persona fisica o giuridica. Ne consegue che, chiunque dichiari di essere vittima di una violazione dei diritti umani derivante dallo sviluppo, diffusione o utilizzo da parte di un’entità pubblica o privata di un sistema di I.A., dovrebbe disporre di un rimedio efficace dinnanzi a un’autorità nazionale.

Per quanto riguarda l’istruzione e l’alfabettizzazione digitale, la conoscenza e la comprensione dell’Intelligenza Artificiale devono essere promosse nelle istituzioni governative, negli organismi di controllo indipendenti, nelle strutture nazionali per i diritti umani, nel sistema giudiziario, nelle forze dell’ordine e con il pubblico in generale.

A questo propo0sito il 4 aprile 2019 il team di esperti istituito dall’UE ha pubblicato le Linee Guida: Creare fiducia nell’Intelligenza Artificiale antropocentrica per una Intelligenza Artificiale affidabile, contenenti sette requisiti chiave:

  1. sorveglianza umana
  2. robustezza e sicurezza
  3. privacy e gestione dei dati
  4. trasparenza
  5. diversità e non discriminazione
  6. benessere sociale e ambientale
  7. responsabilità

Tutto ciò nella cornice degli obiettivi che la Commissione europea stabilisce per i prossimi cinque anni e che si basano su:

  • tecnologia al servizio delle persone;
  • economia equa e competitiva;
  • società aperta, democratica e sostenibile.

Si tratta di princìpi che portano ad una riduzione dei costi dei vari servizi come i trasporti, l’energia, l’educazione, lo smaltimento dei rifiuti, la sanità.

Con lo scopo di predisporre un quadro giuridico per la progettazione, lo sviluppo e l’applicazione dell’intelligenza artificiale che si basi sugli standard del Consiglio d’Europa in materia di diritti umani, è stato istituito dal Comitato dei Ministri un “Comitato ad hoc per l’intelligenza artificiale” Ad Hoc Committed on Artificial Intelligence.

Da ultimo9 il Parlamento europeo ha istituito, nella seduta plenaria del 18 giugno 2020, la AIDA Artificial Intelligence in the Digital Age, organismo che  studierà l’impatto e le sfide dell’introduzione dell’intelligenza artificiale, individuerà obiettivi comuni a livello europeo e proporrà raccomandazioni sulle migliori vie da percorrere.

Il libro bianco sull’intelligenza artificiale del 19. 2.2020 già segna l’impostazione europea nella trasformazione digitale della società. In questo periodo storico di crisi pandemica che interessa l’intero pianeta tale transizione digitale diventa vieppiù importante per la compressione dei diritti legati al trattamento dei dati personali dovuti al Covid-19 e all’utilizzo di sistemi di intelligenza artificiale a fini preventivi.

21.12.2020            Avv. Giovanni Bonomo – Osservatorio diritto d’autore e innovazione digitale Diritto 24

 

 

Hanno parlato di noi

Contattaci

Lunedì – Venerdì: 9.00 – 13.00 / 14.30 – 19.00

Lunedì – Venerdì:
9.00 – 13.00 / 14.30 – 19.00

image_pdfScarica articolo in formato PDF