Meta introduce account dedicati agli adolescenti…e gli altri social?
La sicurezza online dei figli è una delle preoccupazioni principali per l’82% dei genitori italiani, secondo la ricerca Riprendiamoci l’Internet!, condotta da Hearts & Science, agenzia del gruppo Omnicom Media. Le paure aumentano tra chi ha bambini piccoli, con il 9% dei genitori che preferirebbe evitare del tutto l’uso di internet per i propri figli tra i 6 e i 9 anni.
Ma la vera emergenza è la dipendenza dagli smartphone: il 60% ritiene che i propri figli passino troppo tempo con i dispositivi digitali. Seguono timori per contenuti violenti o inappropriati, fake news e pericolose “sfide online”. La situazione non è semplice neanche per gli adulti: il 65% dei genitori dichiara di sentirsi a disagio mentre naviga.
L’account social per adolescenti: la risposta di Meta
Per rispondere a queste preoccupazioni sempre più diffuse, Meta ha annunciato la creazione di “Teen Account” su Instagram, rivolti a utenti dai 13 ai 17 anni. Questi account prevedono misure di protezione automatiche che riguardano la privacy e la sicurezza online, che i genitori possono eventualmente modificare per renderle meno restrittive. Meta ha così cercato di mettere un freno alle critiche, offrendo maggior controllo sulle esperienze digitali dei più giovani.
Le criticità non mancano
Nonostante le novità introdotte, Meta resta sotto la lente delle istituzioni. Lo scorso maggio, la Commissione Europea ha avviato un’indagine per valutare il rispetto da parte dell’azienda degli obblighi previsti dal Digital Services Act. L’ex commissario per il Mercato Interno, Thierry Breton, aveva già espresso scetticismo:
“Non siamo convinti che Meta stia facendo abbastanza per mitigare i rischi sulla salute fisica e mentale dei giovani europei, sia su Facebook che su Instagram”.
In effetti, un’inchiesta del Wall Street Journal del 2023 ha svelato che l’algoritmo di Instagram suggeriva video a contenuto sessuale anche a utenti minorenni, mentre un ex dipendente ha denunciato che il 13% dei minori su Instagram riceve proposte sessuali.
E gli altri social?
Al momento, gli altri social network non sembrano voler seguire l’esempio di Meta, anche se qualche novità significativa c’è, ma non ancora abbastanza per segnalare un vero cambio di rotta.
YouTube ha recentemente modificato i suoi algoritmi per evitare che agli adolescenti vengano raccomandati contenuti che idealizzano standard di forma fisica e peso corporeo. Secondo gli esperti, questi video possono avere effetti negativi sulle giovani generazioni se visualizzati in maniera ripetitiva. Tuttavia, i ragazzi tra i 13 e i 17 anni potranno ancora accedere a tali contenuti, ma non saranno più promossi attivamente dalla piattaforma.
In un post ufficiale, YouTube ha dichiarato: “Supportiamo fortemente le famiglie, i ricercatori, i politici, le aziende e gli esperti nella definizione di standard coerenti per i giovani online. In collaborazione con l’Organizzazione Mondiale della Sanità, stiamo sviluppando risorse pubbliche per migliorare il benessere digitale degli adolescenti, con nuove iniziative in arrivo.”
Lo scorso aprile WhatsApp ha abbassato l’età di iscrizione ai 13 anni, sostenendo che il cambiamento è stato deciso per uniformare il limite a quello esistente nel resto del mondo (dove è 13 anni) e adeguarsi a due nuovi regolamenti europei, il Digital Markets Act (Dma) e il Digital Services Act (Dsa). E la protezione dei minori? Resta molto fumosa ma soprattuto totalmente affidata ai genitori.
Su TikTok dobbiamo segnalare il «Collegamento familiare» che «consente a mamme, papà e tutori di personalizzare le impostazioni di sicurezza dei profili dei figli». In pratica un genitore (o il tutore) può associare il proprio account di TikTok a quello del figlio e impostare controlli sul tempo di uso giornaliero dei minori, sulle notifiche e sui video che potrebbero vedere, scegliendo quali termini o quali hashtag evitare.
Il futuro della sicurezza online per i minori
La mossa di Meta con i “Teen Account” rappresenta un passo avanti, ma il panorama digitale è ancora insidioso per i più giovani. Mentre, come abbiamo visto, alcune piattaforme adottano misure per proteggere gli adolescenti, l’assenza di un coordinamento globale lascia margini di rischio. La creazione di uno standard condiviso tra le aziende tech potrebbe essere la vera soluzione per garantire una navigazione sicura. Al tempo stesso, bisognerebbe davvero definire le modalità di verifica dell’età ed evitare che si possa continuare a dire il falso senza controlli ulteriori.
Solo con uno sforzo congiunto tra istituzioni, aziende e famiglie sarà possibile costruire un ecosistema digitale in cui i minori possano esplorare senza pericoli e in modo responsabile.