Regole chiare, sanzioni e accesso solo dai 16 anni
Le grandi piattaforme di comunicazione – come ad esempio Facebook, Instagram e TikTok – e i motori di ricerca devono avere regole più severe per la tutela degli utenti, in particolare i minorenni, e devono essere previste delle sanzioni nel caso le stesse piattaforme non rispettino i loro doveri. A proposito di minorenni, l’età minima per avere un account personale dovrebbe essere di 16 anni.
È quanto pensa il Consiglio di Stato a proposito della nuova Legge federale sulle piattaforme di comunicazione e motori di ricerca (LPCom) messa in consultazione dal Consiglio federale. “Accanto ad aspetti positivi, come ad esempio la maggiore diversità a livello di informazioni e opinioni pubblicamente visibili, le piattaforme di comunicazione e i motori di ricerca presentano però anche importanti aspetti negativi, come la possibilità di diffondere minacce e insulti o di rimuovere contenuti secondo regole poco chiare. Questi lati negativi – scrive il governo nella sua presa di posizione – possono compromettere i diritti fondamentali in particolare la libertà d’opinione e d’informazione e la formazione delle opinioni dei cittadini svizzeri, nonché la comunicazione pubblica”. Anche perché in Svizzera, attualmente, non esistono disposizioni o esistono solo disposizioni puntuali che rafforzano i diritti degli utenti nei confronti dei fornitori di piattaforme di comunicazione o motori di ricerca o che obbligano questi ultimi a una maggiore trasparenza. “Ciò significa – riconosce il Consiglio di Stato – che gli utenti sono in gran parte alla mercé dei fornitori di piattaforme di comunicazione e di motori di ricerca”.
Maggiore sicurezza per i giovani
Ecco quindi il progetto della nuova legge, i cui obiettivi sono condivisi dall’Esecutivo ticinese che però segnala una serie di criticità, in particolare per quanto riguarda i giovani. Il governo si dice infatti favorevole alle richieste di Protezione dell’infanzia Svizzera e della Conferenza cantonale dell’azione sociale CDAS che suggeriscono di ampliare il progetto preliminare e che gli obiettivi e le finalità includano esplicitamente anche la protezione dei bambini e degli adolescenti e che le piattaforme e i motori di ricerca siano obbligati ad adottare misure specifiche. Ovvero? I minori devono essere protetti dai pericoli della rete, ad esempio dalla violenza sessuale digitale, dal cyberbullismo, dall’incitamento all’odio, dalla pubblicità relativa ai giochi d’azzardo non autorizzati almeno quanto lo sono già nell’Unione europea.
Le misure da rispettare
Il Consiglio di Stato indica anche, punto per punto, quali dovrebbero essere le misure che piattaforme e motori di ricerca sono chiamate a rispettare: segnalare e cancellare immediatamente ogni contenuto sospetto o illegale, in particolare i contenuti inappropriati per i minori; segnalare alle autorità preposte al perseguimento penale e trasmettere attivamente le segnalazioni; eseguire analisi regolari dei rischi per valutare se i minori vengono contattati o sfruttati tramite i loro servizi; introdurre misure di protezione di efficacia comprovata e conforme al grado tecnologico attuale; predisporre sistemi di verifica dell’età conformi in materia di protezione dei dati (controllo parentale a doppia identificazione, algoritmi che non conducano a contenuti estremi, limitazione dei flussi di dati destinati agli adolescenti per ridurre il cosiddetto scrolling, divieto di ogni forma di pubblicità mirata rivolta ai minori.
E se le piattaforme non dovessero rispettare questi obblighi? Semplice, per il governo ticinese la nuova legge dovrebbe prevedere sanzioni appropriate.
CANTONE
it-ch
2026-02-27T08:00:00.0000000Z
2026-02-27T08:00:00.0000000Z
https://epaper.laregione.ch/article/281578067142437
Regiopress SA