Cerca
Close this search box.
Cerca
Close this search box.
0%
Premi per ascoltare

Parental control a tutela dei minori in rete, le linee guida Agcom

parental control

di Maria Grazia Loreto

Sono i siti per adulti, riservati a un pubblico maggiorenne, che “mostrano nudità totale o parziale in un contesto sessuale pornografico, accessori sessuali, attività orientate al sesso” o consentono l’acquisto online di questi servizi, o quelli che presentano o promuovono violenza, lesioni personali, autolesionismo o suicidio, o “che mostrano scene di violenza gratuita, insistita o efferata”, oppure quelli che promuovono o supportano odio, intolleranza, discriminazione verso gruppi o individui.

Tipologie di contenuti dannosi per un sano percorso di sviluppo psico-fisico dai quali i minori vanno tutelati attraverso sistemi di parental control che consentano blocchi o filtri di accesso, a oggi già offerti da operatori di telecomunicazioni e fornitori di accesso a Internet (Internet services providers-Isp) ma in misura parziale e non sempre rispondente a quello che prevede il quadro normativo nazionale ed europeo.

Indicazioni omogenee arrivano dalle Linee guida per l’implementazione di sistemi di protezione dei minori dai rischi del cyberspazio rilasciate l’8 novembre dall’Autorità per le garanzie nelle comunicazioni (Agcom), previa consultazione con gli stakeholder, per consentire l’attuazione in concreto della normativa di riferimento, in particolare l’articolo 7-bis (Sistemi di protezione dei minori dai rischi del cyberspazio) del decreto-legge n.28/2020 (convertito in legge con la n.70/2020), relative alla classificazione e individuazione dei contenuti per i quali deve essere pre-attivato un sistema di controllo parentale e alle modalità tecniche per realizzarli.  

La disciplina si riferisce ai soli contratti per consumatori, ai quali gli operatori, a prescindere dalla tecnologia utilizzata, devono mettere a disposizione sistemi che permettano di limitare o bloccare l’accesso a determinate attività e contenuti inappropriati da parte di un minore, tramite qualunque applicazione, assicurando come funzionalità minima la possibilità di impedire al minorenne l’accesso al dominio, al sito web, all’applicazione o attraverso l’uso di filtri DSN o altri filtri di rete e “black lists”, con il reindirizzamento a una pagina esplicativa dell’operatore, o tramite applicativo da installare sul dispositivo del consumatore.

I sistemi di parental control devono essere software usabili (di facili configurazione e/o uso) inclusi e attivati nelle offerte dedicate ai minori (pre-attivazione), rimanendo riservate ai maggiorenni titolari del contratto o che esercitano la potestà genitoriale sul minore (per la maggior parte dei social media l’età minima di iscrizione è oggi 13 anni) le operazioni di disattivazione, riattivazione e configurazione. Devono essere gratuiti, e non soggetti a vincoli di sottoscrizione di altri prodotti a pagamento (divieto di “bundling”).

I consumatori devono inoltre essere messi in condizione, a cura degli operatori, di informarsi adeguatamente, in modo chiaro e completo, sia attraverso i siti web e le carte dei servizi di Isp e altri, così come tramite campagne di comunicazione mirate.

Ciò in uno scenario, spiega l’Agcom nella documentazione a corredo delle Linee guida, a oggi ancora disomogeneo e complessivamente parziale, soprattutto quanto a costi e modalità, anche se molti operatori hanno provveduto e stanno implementando sistemi di parental control. 

Obiettivo delle Linee guida è infatti “orientare gli operatori in ordine alle modalità di realizzazione dei sistemi di protezione dei minori, alle modalità di configurazione degli stessi, alla fornitura di informazioni chiare e trasparenti sulle modalità di utilizzo da parte dei titolari dei contratti di servizi di comunicazione elettronica.”

Sono 8 le principali categorie di contenuti nocivi indicate a livello generale, salva la possibilità per gli operatori, in aggiunta, di utilizzare le liste di domini/sottodomini e contenuti determinate secondo proprie specifiche di servizio e/o fornite da soggetti terzi selezionati per “per serietà e capacità professionale…”.

Individuate anche in base alle indicazioni ricevute in fase di consultazione, comprendono oltre a quelli citati in apertura i contenuti relativi a promozione di uso o vendita di armi; di pratiche che possono danneggiare la salute (anoressia, bulimia, uso di droghe, alcol o tabacco); gli “anonymizer”, ovvero piattaforme che forniscono strumenti e modalità per rendere irrintracciabile l’attività online; quelli che si rifanno a sette (ovvero che promuovono/offrono metodi, informazioni o altro finalizzati a influire sulla realtà attraverso incantesimi, maledizioni, poteri magici, etc.).

Le categorie di contenuti considerati nocivi per lo sviluppo fisico, psichico o morale dei minori devono essere individuate dagli Stati membri tramite le autorità preposte, anche se attraverso procedure di co-regolamentazione, e non dagli operatori, precisa l’Agcom, ricordando a conferma la “convergenza tra i due comparti regolamentari relativi alle comunicazioni elettroniche e ai contenuti”. 

Tutto questo in un panorama in cui proprio in questi giorni passa sulle reti televisive la campagna di Instagram – il social più amato dalla X generation – sulla tutela dei minori, mentre negli Stati Uniti stanno partendo “class actions” da decine di Stati Usa nei confronti di Meta, proprietaria tra le altre proprio di Instagram e Facebook, chiamate in causa sul piano delle tutela – ritenuta evidentemente insufficiente dai ricorrenti – dei più piccoli da contenuti nocivi e/o effetti per loro dannosi delle piattaforme.

Ultimi articoli

A Siena il confronto tra le best practices della sanità digitale

In Toscana arriva il Festival della Robotica

Calendario eventi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Skip to content