I social media e i minori: educhiamoli per difenderli

Tu sei qui:

Gli operatori e gestori dei servizi di comunicazione elettronica e digitale sono obbligati ad attivare sistemi di controllo parentale e misure di blocco di contenuti inappropriati per i minori. Il ruolo della famiglia, oltre che della scuola e delle istituzioni, resta il primo strumento di tutela per i più giovani dai rischi della Rete.

Il tema della sicurezza della Rete va di pari passo con la questione della tutela dei dati personali e della protezione dei soggetti minorenni. Si tratta di un tema cruciale e oggetto quest’anno del Safer Internet Day dell’8 febbraio 2022, in cui non si è mancato di parlare dell’educazione nelle scuole, della protezione dei minorenni e della tutela dei soggetti fragili.

Nell’articolo “La tutela dei diritti dei minori in Internet” di cinque anni fa avevo delineato il quadro normativo di riferimento sottolineando tuttavia la carenza, nello scenario multimediale creatosi con la digitalizzazione, di misure adeguate e specifiche.

Ora, dopo tale giornata promossa dal Ministero dell’Istruzione a cui è seguita la nuova delibera AGCom (Autorità per le Garanzia nelle Comunicazioni) in esito (21 marzo 2022) alla consultazione pubblica per l’adozione di linee guida finalizzate all’attuazione dell’art. 7-bis “Sistemi di protezione dei minori dai rischi del cyberspazio” del D.L. 30 aprile 2020 n. 28 aggiunto in sede di conversione dalla legge 25 giugno 2020 n. 70, mi sento in dovere di fare il punto della situazione. L’art. 7-bis obbliga tutti gli operatori e gestori di servizi di comunicazione elettronica ad attivare preventivamente sistemi di controllo parentale di contenuti inappropriati per i minori e misure di blocco di contenuti riservati a un pubblico maggiorenne.

Linee guida

Le linee guida dell’AGCom prevedono che i sistemi di controllo parentale devono essere attivati su tutte le nuove utenze, mentre su quelle già attivate solo nel caso che il contratto sia intestato a un utente minorenne.

Ricordiamoci che il Regolamento UE 2016/679, meglio noto come GDPR, dispone all’art. 8 “Condizioni applicabili al consenso dei minori in relazione ai servizi della società dell’informazione” che il trattamento dei dati è lecito laddove il minore abbia almeno 16 anni. Altrimenti il consenso viene prestato o autorizzato dal titolare della responsabilità genitoriale.

In ogni caso gli Stati membri, secondo il GDPR, possono stabilire per legge un’età del consenso inferiore purché non si vada al di sotto della soglia dei 13 anni. Il nostro codice della Privacy (D. Lgs. n. 196/2003 coordinato ed aggiornato, da ultimo, con le modifiche apportate dalla legge n. 205/2021) fissa all’art. 2quinquies “Consenso del minore in relazione ai servizi della società dell’informazione” la soglia del consenso del soggetto minorenne a 14 anni. 

Negli USA il C.O.P.A. Children’s Online Privacy Protection Act stabilisce l’età minima a 13 anni. Così come la maggior parte dei social networks Facebook e Instagram stabiliscono l’età del consenso digitale a 13 anni. TikTok chiede ora, a seguito delle note vicende di decessi da emulazione di giochi pericolosi, il requisito dei 13 anni di età per registrarsi alla piattaforma.

Ma come si fa se il minore, ad esempio un undicenne, si registra a tale piattaforma mentendo sulla propria età? Secondo alcuni si potrebbero applicare alla verifica anagrafica le tecnologie di A.I. Intelligenza Artificiale, dalla registrazione vocale al riconoscimento facciale. In ogni caso occorrono misure effettivamente idonee a garantire l’accertamento, in maniera univoca e sicura, dell’età dei soggetti che vi accedono, senza creare però un’inammissibile anagrafe mondiale.

Accertamento dell’età 

Recentemente negli USA vi sono proposte di aggiornare il C.O.P.A., risalente al 1998, con un aumento dell’età del consenso digitale a 15 anni.  Questo soprattutto a fronte di contenuti che incoraggiano comportamenti pericolosi, abusi alimentari e modelli autolesionistici.

Il Children’s Code del regno Unito, entrato in vigore il 2 settembre 2021, viene spesso richiamato quale normativa modello più convincente nei princìpi fondanti e nella distinzione degli utenti in base a fasce di età, in relazioni alle quali variano le stesse misure di controllo parentale e le informazioni sul loro funzionamento.

Il Parlamento Europeo ha di recente approvato, il 5 luglio 2022, il Digital Services Act (DSA) presentato dalla Commissione nel dicembre 2020, un regolamento che va a sostituire e novare il precedente regime di responsabilità dei fornitori di servizi della società dell’informazione dato dalla Direttiva sull’E-commerce CE 2000/31. 

Scopo di tale regolamento è contribuire al corretto funzionamento del mercato interno dei fornitori di servizi stabilendo norme armonizzate per un ambiente online sicuro, prevedibile e affidabile, che faciliti l’innovazione e in cui i diritti fondamentali sanciti dalla C.E.D.U. Carta Europea dei Diritti Fondamentali, come il principio della protezione dei consumatori, siano tutelati in modo effettivo.

Tale regolamento, che si applica ai “servizi della società dell’informazione”, ridefinisce le norme applicabili alle piattaforme online, modificando la Direttiva 31/2000 sull’e-commerce, principale riferimento normativo con riguardo alla “responsabilità del provider” o “secondary liability”.

L’impianto generale della Direttiva sul commercio elettronico viene mantenuto – vale a dire l’esenzione di responsabilità per i provider esercenti attività di mere conduit, caching e hosting – ma vengono introdotte nuove norme in materia di trasparenza, obblighi informativi e responsabilità, in buona parte recependo gli orientamenti giurisprudenziali emersi nel corso degli anni.

Categorie fragili

Sul fronte della tutela dei minori il DSA non interviene in modo specifico sulle modalità di controllo dell’età di chi accede ai social e alle varie piattaforme in Rete,  mirando, più che a impedire l’accesso a determinate categorie fragili, a rendere la piattaforma alla quale si accede priva di pericoli.

Per concludere possiamo dire che il ruolo della famiglia, oltre che della scuola e delle istituzioni, resta il fondamentale e primo strumento per la tutela dei minori dai rischi della Rete, non essendoci tecnologia di I.A. che possa sostituire l’elemento umano. Anche la nostra AGCom ha più volte attribuito, nelle proprie delibere, un ruolo fondamentale all’intervento genitoriale.

Questa linea di pensiero si è tradotta nello slogan “Minori sui social: educhiamoli per difenderli”. Occorre infatti educare i minori, a casa e a scuola, a pensare in modo critico, per difendersi dai pericoli che si annidano nella Rete, ad iniziare da subdole pubblicità o messaggi suggestivi di cui non di rado anche gli adulti sono vittime.

Milano, 25. 9.2022  avv. Giovanni BonomoA.L. Chief Innovation Officer – Diritto dell’informazione e dell’informatica

image_pdfScarica articolo in formato PDF