Some alternative text

Presa di posizione sulla regolamentazione delle piattaforme di comunicazione a tutela dei bambini

Protezione dell’infanzia Svizzera esige che il Consiglio federale sancisca finalmente nella prevista legge federale sulle piattaforme di comunicazione e sui motori di ricerca (LPCom) dei provvedimenti concreti, senza temporeggiare ulteriormente.

Urge una regolamentazione

Dato che la comunicazione e l’acquisizione di informazioni avvengono sempre di più nello spazio digitale per poi essere trasferite sulle piattaforme di comunicazione, gestite dai grandi gruppi tecnologici privati in funzione dei loro interessi e obiettivi economici, è assolutamente lecito che gli utenti esigano maggiore trasparenza nel vedere garantiti i loro diritti e, in particolare, che bambini e adolescenti siano protetti dalla violenza e da contenuti inadeguati.

Protezione dell’infanzia Svizzera accoglie con favore i dibattiti pubblici circa il ruolo e i doveri delle piattaforme di comunicazione e i possibili limiti di età per il loro utilizzo.

Purtroppo, continuiamo ad attendere la consultazione – già più volte rimandata – sull’avamprogetto della legge federale sulle piattaforme di comunicazione e sui motori di ricerca (LPCom). Considerando che, nel frattempo, le piattaforme continuano a essere ampiamente utilizzate e che molti bambini vi sperimentano forme di violenza, Protezione dell’infanzia Svizzera rende i seguenti punti di pubblica discussione, con l’obiettivo di regolamentare le piattaforme di comunicazione in modo tale che i bambini siano il più possibile protetti dalla violenza.

Attualmente la Svizzera deve far fronte al sempre più evidente pericolo di bambini esposti a violenza sessuale digitale in rete, poggiando su un apparato lacunoso e con una regolamentazione a mosaico. La legge sulla protezione dei dati non tiene praticamente in conto il fatto che i bambini più piccoli fanno fatica a valutare quali conseguenze possa avere una pubblicazione dei loro dati in rete. Il Codice civile attribuisce principalmente ai genitori il dovere di proteggere i propri figli dalla minaccia digitale al bene del bambino. In realtà, la legge federale sulla protezione dei minori nei settori dei film e dei videogiochi offre miglioramenti puntuali, in quanto obbliga determinate piattaforme a prendere provvedimenti per la protezione dei minori1. Manca, però, un quadro giuridico completo che imponga a tutti i prestatori di servizi digitali chiamati in causa di assumersi la responsabilità e di tutelare bambini e adolescenti dalle conseguenze dannose dovute all’utilizzo delle piattaforme di comunicazione. È quanto ci si aspetta dalla prossima legge LPCom.

 

La violenza su bambini e adolescenti sulle piattaforme di comunicazione

La violenza sessuale digitale sui bambini

Secondo lo studio JAMES, nel 2022 a quasi il 50% degli adolescenti svizzeri era già capitato di essere approcciato online da una persona sconosciuta con richieste indesiderate a sfondo sessuale (cfr: nel 2018 il dato del sondaggio era del 30%, nel 2014 del 19%)2. I risultati dello studio per l’anno 2024 hanno dimostrato che, nel corso degli ultimi due anni, al 33% degli adolescenti intervistati era già capitato di aver incontrato estranei in rete che volessero parlare con loro di sesso, al 32% era capitato di essere approcciato da sconosciuti con richieste indesiderate a sfondo sessuale e il 26% era stato incitato a inviare foto erotiche personali. L’8% degli intervistati era stato indotto a compiere atti sessuali davanti alla webcam3.

Le piattaforme di comunicazione online facilitano l’accesso diretto ai bambini. Alcuni studi dimostrano che i social media e le piattaforme di gioco online con la funzione chat vengono utilizzati impropriamente da persone con intenzioni pedocriminali allo scopo di entrare in contatto con bambini e adolescenti. Essi vengono poi attirati sui canali di comunicazione con crittografia end-to-end, dove il controllo è pressoché impossibile e i bambini restano inguaiati in conversazioni che hanno l’obiettivo di sfruttarli sessualmente4. Si configurano così vari tipi di reato, che rientrano nella categoria della violenza sessuale digitale sui bambini: importanti molestie sessuali, la preparazione di un bambino a un incontro tanto atteso con il criminale allo scopo di estorcere atti sessuali (grooming) o l’istigazione a compiere atti sessuali davanti alla webcam, per poi condividere di nascosto milioni di volte i video e le immagini. Anche la creazione e la diffusione di contenuti pedocriminali è violenza sessuale che si perpetra sulle piattaforme di comunicazione online. Gli algoritmi dei provider diffondono automaticamente contenuti illegali a utenti palesemente interessati.

Il numero di contenuti pedocriminali in rete aumenta in modo esponenziale. Bastano pochi secondi per condividere in tutto il mondo video e immagini di bambini vittime di violenza sessuale. Per non parlare del materiale pedocriminale prodotto per mezzo dei tool di IA. Il National Center for Missing and Exploited Children NCMEC5, che gestisce lo sportello di segnalazione «CyberTipline», nel 2023 ha ricevuto più di 36 milioni di segnalazioni relative a sospetti di materiale pedocriminale e oltre 100 milioni di file ivi contenuti – vale a dire più di 250’000 file con sospetto contenuto pedocriminale al giorno oppure tre file al secondo. Tra il 2021 e il 2023, il NCMEC ha documentato inoltre un aumento del 300% di segnalazioni di adescamento online di minori a scopo di sfruttamento sessuale6. Secondo la Internet Watch Foundation (IWF)7, a crescere è stata in modo particolare la categoria dei contenuti estremi e marcatamente aggressivi8, i quali negli ultimi anni hanno continuato a essere visti in modo costante da ben oltre il 95% dei bambini di meno di 14 anni9.

Nel 2023 fedpol ha ricevuto 14’420 segnalazioni dal NCMEC circa casi sospetti pedocriminali connessi alla Svizzera; il numero è più che raddoppiato dal 202110. Secondo la Internet Watch Foundation, nel 2023 la Svizzera era il quarto Paese al mondo per il maggior numero di pagine web contenenti materiale pedocriminale, con oltre 22’500 segnalazioni11.

Molti bambini sembrano essere consapevoli dei rischi sulla rete e si sentono responsabili in prima persona per la propria sicurezza12

La Svizzera deve comprendere che il suo obbligo di protezione di Stato va necessariamente espletato anche in ambito digitale. I bambini non devono correre il rischio di subire i peggiori abusi sessuali. Ecco perché, anche in Svizzera, le piattaforme di comunicazione online hanno il dovere di prevedere misure di tutela e di prevenzione dalla violenza sessuale digitale sui bambini.

Dal punto di vista di Protezione dell’infanzia Svizzera, la regolamentazione delle piattaforme attraverso il supporto di misure di protezione verificabili ed efficaci passa anche attraverso un’età minima stabilita per legge per l’utilizzo delle piattaforme social. Affinché la diffusione di contenuti pedocriminali in rete venga limitata il più possibile e vengano tutelati anche i bambini più piccoli che non possiedono un proprio account social o gli adolescenti che hanno già superato l’eventuale limite d’età stabilito per legge, i provider devono essere coerentemente richiamati all’ordine e assolvere al loro dovere. Tuttavia, alla luce degli attuali rischi, si rende necessario imporre dei limiti d’età. In considerazione delle proposte oggi disponibili, il limite d’età per il possesso di un proprio account social dovrebbe essere di 16 anni.

I provvedimenti legislativi per la protezione della violenza sessuale digitale sui bambini devono essere coordinati tra loro, anche oltre i confini nazionali. Solo così sarà possibile impedire le scappatoie e fare in modo che le piattaforme si assumano le proprie responsabilità. Quest’armonizzazione richiede il contributo delle numerose organizzazioni leader della società civile, ma anche del think tank dell’Alleanza globale WeProtect, in cui fedpol rappresenta la Svizzera.13

Pertanto, nel 2020 l’UE ha varato una strategia lungimirante per una lotta più efficace contro gli abusi sessuali su minori14 che mira, attraverso vari tipi di misure, ad armonizzare la legislazione degli Stati membri e a imporre alle piattaforme di comunicazione online l’obbligo di misure di protezione: il Digital Services Act obbliga i provider delle piattaforme online accessibili ai minori di prendere misure adeguate e proporzionate allo scopo di garantire maggiore privacy, sicurezza e tutela dei minori. Le piattaforme online e i motori di ricerca più potenti devono effettuare una rilevazione costante dei rischi presenti nella concezione e nell’utilizzo dei loro servizi, ove, oltre al rischio della diffusione di contenuti illegali e alle ripercussioni negative sui diritti fondamentali, occorre valutare anche le conseguenze negative in riferimento alla tutela dei minori. Le piattaforme devono illustrare le misure prese e come esse agiscono sui rischi individuati. Il regolamento generale UE sulla protezione dei dati tiene conto della maggiore vulnerabilità di bambini e adolescenti, fissando a 16 anni il limite d’età a partire dal quale un individuo può acconsentire in prima persona al trattamento dei dati personali15. Nella primavera del 2022, la Commissione UE ha inoltre elaborato una «Proposta di regolamento che stabilisce norme per la prevenzione e la lotta contro l’abuso sessuale su minori», concepita come lex specialis in riferimento al Digital Services Act. Essa mette nero su bianco il rischio che un servizio venga utilizzato su Internet allo scopo di abuso sessuale, il cui concetto comprende – in base alla definizione contenuta nella proposta di legge – tanto la diffusione di immagini pedocriminali in rete quanto la presa di contatto indebita con i minori. La proposta di regolamento obbliga all’occorrenza a verificare l’età degli utenti e ad adottare provvedimenti adeguati ed efficaci per la riduzione dei rischi. Provvedimenti legislativi simili sono stati presi di recente anche nel Regno Unito16 e in Irlanda17.

Affinché i bambini e gli adolescenti svizzeri siano protetti altrettanto adeguatamente dalla violenza sessuale digitale in rete e i gestori delle piattaforme siano consapevoli dei servizi che nascondono rischi per queste categorie di utenti, gli sforzi di regolamentazione devono stare al passo con quelli europei.

 

Violenza psicologica: cyberbullismo e discorsi d’odio (hate speech)

Sulle piattaforme di comunicazione gli utenti più giovani sono anche esposti a violenza psicologica.  Un terzo di tutti gli adolescenti ha già subito episodi di cyberbullismo18 e questo dato è in costante crescita da ormai dieci anni. Sulle piattaforme online sono ormai all’ordine del giorno anche i commenti svilenti e offensivi (il cosiddetto «hate speech»). Un buon 40% dei giovani di 15/16 anni ne è già rimasto vittima, subendo attacchi discriminatori a causa dell’aspetto, della provenienza, delle opinioni o del comportamento. 19  La maggior parte dei bambini e degli adolescenti che sono stati testimoni indiretti di hate speech pur non essendone direttamente interessati ha sviluppato reazioni quali rabbia, tristezza o paura20.

Dal punto di vista della Confederazione non esistono provvedimenti specifici per proteggere i bambini dall’hate speech. Nel 2023, su incarico del Parlamento, la Confederazione ha lanciato una campagna online contro il cyberbullismo; ma si è trattato di un caso isolato, una campagna per la quale non sono state poi messe a disposizione risorse aggiuntive21. È tuttavia necessario un impegno permanente in questo senso da parte della Confederazione e dei Cantoni. Da lungo tempo il Parlamento federale sta valutando l’introduzione di un nuovo articolo specifico all’interno del Codice penale. Si tratterebbe senza dubbio di un segnale netto, ma ci sarebbe bisogno di altre misure preventive che chiamino in causa anche le stesse piattaforme: quest’ultime, infatti, devono avere l’obbligo di mettere a disposizione un servizio di segnalazione per i commenti svilenti e offensivi nonché quello di cancellare questi contenuti entro 24 ore al massimo. Gli autori di questi discorsi d’odio devono poi essere bloccati dai gestori delle piattaforme. Quest’ultime devono anche garantire una moderazione dei contenuti secondo criteri trasparenti, in grado di prevenire l’hate speech.

Algoritmi che creano dipendenza e contenuti pericolosi come violenza strutturale

Le piattaforme sono concepite in modo tale che gli utenti vi trascorrano quanto più tempo possibile e utilizzino quanti più contenuti possibile. L’«utilizzo problematico di Internet», come misurato nel sistema di monitoraggio svizzero delle dipendenze e delle MNT (MonAM) dell’Ufficio federale della sanità pubblica (UFSP), è pressoché raddoppiato tra il 2017 e il 2022 nei giovani di età compresa tra i 15 e i 19 anni22. Il 40% degli adolescenti tra gli 11 e i 15 anni ha già tentato di trascorrere meno tempo sui social, ma senza riuscirci. Quasi la metà di questi giovani ha cercato spesso di sfuggire alle sensazioni negative impiegando il tempo sui social. 23 Le piattaforme, inclusa l’architettura degli algoritmi, sono concepite in modo da stimolare le aree del cervello preposte alla curiosità, al desiderio e alla ricompensa. Questo meccanismo conduce rapidamente alla dipendenza, proprio tra gli utenti più giovani. Il cervello degli adolescenti, ancora in fase di sviluppo, non è in grado di resistere agli stimoli forniti dagli algoritmi. Ecco perché fino al 15% dei bambini e degli adolescenti definisce problematico l’utilizzo che fa dei social media24.

Gli algoritmi propongono agli utenti contenuti sulla base del loro comportamento di utilizzo individuale, con la conseguenza che gli utenti stessi finiscono velocemente nella cosiddetta «rabbit hole», dove i contenuti si fanno velocemente sempre più estremi. Si crea, quindi, un inasprimento che va autoalimentandosi e che conduce in parte a mondi di contenuti chiusi quasi ermeticamente: depressione, autolesionismo, consumo di droghe, suicidio o anche la radicalizzazione religiosa sono temi che toccano sempre più da vicino un gran numero di giovani sui social media. Se si pensa che quasi un quarto delle ragazze tra i 15 e i 19 anni riferisce di pensieri suicidi frequenti e che oltre il 7% ha già tentato di togliersi la vita negli ultimi cinque anni25, va da sé che la proposta mirata di tali contenuti è davvero allarmante. Gli utenti si sentono di gran lunga impotenti di fronte a questo streaming e consumano ciò che viene loro proposto. Per lo meno, il 49% dei ragazzi vede raramente video brutali (la percentuale scende al 24% nel caso delle ragazze), mentre il 6% degli adolescenti li vede, invece, addirittura quotidianamente o più volte alla settimana26.

Questa esposizione degli adolescenti a contenuti inquietanti e lesivi, parzialmente traumatizzanti, viene definita come violenza strutturale e non può essere accettata. Serve prevedere meccanismi di protezione e imporre dei limiti allo streaming, affinché non vengano proposti nuovi contenuti all’infinito. Le piattaforme stesse devono impedire attivamente ai giovani di andare sempre più a fondo di questi contenuti, inopportuni e dannosi per il loro sviluppo.

Piattaforme di comunicazione: come tutelare i bambini

Affinché i più piccoli siano efficacemente protetti dalla violenza, la LPCom deve imporre provvedimenti globali. In questo senso, gli sforzi di regolamentazione non devono essere limitati esclusivamente alle piattaforme di comunicazione online, ma anche ad altri provider di servizi digitali:

  • Le piattaforme di comunicazione online e i servizi di hosting sono tenuti a segnalare alle autorità inquirenti i contenuti presumibilmente illegali di cui sono o vengono a conoscenza, a bloccarne prontamente l’accesso e a cooperare con le autorità stesse per provvedere a un’immediata cancellazione dei contenuti.
  • Le piattaforme di comunicazione online e i servizi di hosting devono impostare una procedura di notifica in cui gli utenti possano segnalare comportamenti sbagliati, contenuti illegali e atti di violenza, in collaborazione con i servizi specializzati (ad es. «Take it Down» di NCMEC)
  • Le piattaforme di comunicazione online e i servizi di hosting devono effettuare regolarmente un’analisi dei rischi in base a criteri definiti, in grado di rilevare specificatamente:
    • in quale misura i bambini sono esposti alla violenza sessuale digitale mentre fanno uso dei servizi da loro offerti;
    • se i servizi offerti vengono utilizzati impropriamente per contattare i bambini a scopi criminali; oppure
    • se esiste la possibilità che i contenuti pedocriminali vengano diffusi.
  • Si dovrà poi rendere conto a un’autorità stabilita a livello federale circa i risultati ottenuti dall’analisi dei rischi.
  • Le piattaforme di comunicazione online e i servizi di hosting devono far fronte ai rischi individuati tramite misure mirate, proporzionate e di comprovata efficacia, mentre l’obbligo legislativo va declinato in modo da non intralciare il rispettivo grado scientifico e tecnologico attuale, riconosciuto a livello internazionale.
  • Gli utenti che diffondono discorsi d’odio o che molestano sessualmente altri utenti devono essere bloccati dalle piattaforme.
  • Le piattaforme di comunicazione online devono essere obbligate a implementare sistemi di controllo e di verifica dell’età conformi alla protezione dei dati. Occorre stabilire un’età minima per l’utilizzo dei servizi che tenga in considerazione lo stadio di sviluppo dell’individuo. Se permangono i rischi attuali, occorre fissare l’età minima di 16 anni per disporre di un account personale sui social media. Tali limiti d’età devono essere implementati dalle piattaforme. A tale riguardo occorre prevedere per legge i corrispondenti mezzi coercitivi (ad es. sanzioni elevate).
  • Le piattaforme di comunicazione online devono limitare l’accesso allo streaming per gli utenti più giovani, affinché non possano scorrerli all’infinito. Attraverso l’architettura della piattaforma, va inoltre garantito che i giovani utenti non abbiano la possibilità di approfondire sempre più un determinato argomento. Occorre disinnescare l’azione amplificatrice degli algoritmi. Bisogna impedire la radicalizzazione, gli atteggiamenti autolesionistici e l’accesso a contenuti sempre più estremi.
  • I giovani hanno bisogno di confronto e di partecipazione sociale. Il contatto con altri adolescenti attraverso le piattaforme di comunicazione può essere molto importante, soprattutto per gli adolescenti più emarginati. Per questo servono piattaforme sicure, che non propongano «dark patterns», ossia modelli di progettazione ingannevoli e che creano dipendenza. Se le piattaforme sono sicure, i limiti d’età posso essere più bassi.
  • Gli store delle app devono indicare quali rischi corrono i bambini e gli adolescenti nell’utilizzo delle applicazioni proposte.
  • Il sistema di analisi dei rischi deve essere collegato a un sistema di sanzioni (pecuniarie o di altro tipo). Sarebbe auspicabile la creazione di un fondo da parte dei prestatori di servizi digitali dedicato alla prevenzione dei cyber-reati sessuali nei confronti dei bambini. Infatti, gruppi come Meta o TikTok registrano miliardi di utili in tutto il mondo, laddove l’utilizzo dei loro servizi contribuisce in misura massiccia alla diffusione di violenza sessuale digitale, pur non essendo attualmente obbligati in Svizzera a fornire aiuto in termini di prevenzione e nemmeno a partecipare in altro modo alle spese di questo fenomeno sociale.
  • La Confederazione deve esercitare una maggiore azione di prevenzione – sia nei confronti della violenza sessuale su bambini e adolescenti su Internet, sia nei confronti dei discorsi d’odio e di altre forme di violenza – destinando i mezzi necessari a tale scopo.

Inoltre, nell’ambito del processo legislativo, Protezione dell’infanzia Svizzera sarebbe lieta di confrontarsi attivamente sulla misura in cui le piattaforme dovrebbero essere obbligate a utilizzare in modo mirato, proporzionato e conforme alla legge i recenti strumenti tecnologici a disposizione (come i tool dell’IA) per individuare materiale pedocriminale. Così come avviene per altri diritti fondamentali, infatti, occorre tenere conto anche del diritto dei minori a essere tutelati dall’abuso sessuale e alla protezione della loro incolumità. In considerazione del fatto che le autorità inquirenti devono fare i conti con importanti problemi di risorse, ancora più evidenti nel settore del perseguimento penale della cybercriminalità27, s’impone altresì la questione di come affrontare in modo assolutamente efficace l’enorme ondata di cybercriminalità.

1 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, account per teenager di Instagram: Hoffnung für den Kinderschutz?, in: Jusletter 4 novembre 2024.

2 Studio James 2022, pagg. 60-63, disponibile su: https://www.zhaw.ch/storage/psychologie/upload/forschung/medienpsychologie/james/2018/Rapporto_JAMES_2022_it.pdf

3 Studio James 2024, pag. 68 segg., disponibile in tedesco e inglese su: https://www.zhaw.ch/de/psychologie/forschung/medienpsychologie/mediennutzung/james/

4 Vedere ad es.: Stefano Caneppele et al., Mesures de protection des enfants et des jeunes face aux cyber-délits sexuels. Studio commissionato dall’Ufficio federale delle assicurazioni sociali. Luglio 2022.

Oppure anche: Alleanza globale WeProtect, Global Threat Assessment 2023, pag. 22.

5 Il NCMEC è un’organizzazione statunitense no-profit che gestisce lo sportello CyberTipline, il quale consente di segnalare i sospetti di materiale pedocriminale, tratta di minori a scopi sessuali e altre forme di sfruttamento sessuale minorile. Sia i privati sia i provider di servizi elettronici statunitensi, che in base al diritto USA hanno l’obbligo di segnalazione, possono rivolgersi al CyberTipline. Il NCMEC smista le segnalazioni sospette e le trasmette a fedpol, qualora il caso sia di competenza svizzera (cfr. anche il rapporto del Consiglio federale in adempimento dei postulati 19.4016 e 19.4105, pag. 13 segg.).

6 CyberTipline 2023 Report, disponibile in inglese su: https://www.missingkids.org/cybertiplinedata

7 La Internet Watch Foundation (IWF) è un’organizzazione no-profit con sede nel Regno Unito che gestisce lo sportello di segnalazione più grande d’Europa per il materiale pedocriminale in rete. La IWF dispone anche della facoltà giuridica di cercare attivamente questo tipo di materiale.

8 IWF Annual Report 2023, disponibile in inglese su: https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-severity/

9 IWF Annual Report 2023, disponibile in inglese su: https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-age/

10 Rapporto annuale fedpol 2023, disponibile su:
https://fedpol.report/it/report-2023/fedpol-in-cifre/pedocriminali-in-agguato/

e anche il rapporto del Consiglio federale in adempimento dei postulati 19.4016 e 19.4105, pag. 15.

11 La IWF smista i casi sospetti. Nella statistica della IWF qui citata, sono registrate le segnalazioni contenenti materiale pedocriminale che costituiscono reato in base alla legislazione britannica e il cui URL fa riferimento a un server in Svizzera. Disponibile in inglese su:
https://www.iwf.org.uk/annual-report-2023/trends-and-data/geographical-hosting-urls/

12 ECPAT, Eurochild, Terre des Hommes Netherlands, Down to Zero. VOICE Project, Speaking up for change. Children’s and caregivers’ voices for safer online experiences, 2024, disponibile in inglese su:
https://ecpat.org/resource/voice-report-speaking-up-for-change-childrens-and-caregivers-voices-for-safer-online-experiences/

13 Alleanza globale WeProtect, Global Threat Assessment 2023, pag. 8.

14 Il termine «abuso sessuale» non viene utilizzato da Protezione dell’infanzia Svizzera in quanto svilente. Nel presente documento viene impiegato unicamente per non falsare il testo ufficiale tedesco della strategia UE o comunque la legislazione UE in base alla Gazzetta ufficiale dell’Unione europea (EUR-Lex).

15 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, account per teenager di Instagram: Hoffnung für den Kinderschutz?, in: Jusletter 4 novembre 2024, pag. 4 segg.

16 https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer

17 https://www.politico.eu/article/eu-tech-ireland-new-rules-crack-down-x-tiktok-facebook-instagram-youtube-reddit-linkedin-online-safety-code/

18 Külling, Céline, et al. (2024). JAMES: Giovani, attività, media – rilevamento Svizzera, pag. 63 segg.

19 EU Kids Online 2019, pag. 40.

20 Külling et al.: JAMESfocus, Discorsi d’odio in Internet, 2021, pag. 14 (link).

21 Mozione 20.3687 «Campagna sui media sociali contro bullismo e ciberbullismo tra i bambini e i giovani» (link).

22 Indicatore «Utilizzo problematico di Internet (età: 15+)», https://ind.obsan.admin.ch/it/indicator/monam/utilizzo-problematico-di-internet-eta-15

23 Delgrande Jordan M. & Schmidhauser V. (2023). Comportements en ligne des 11 à 15 ans en Suisse – Situation en 2022 et évolution récente – Résultats de l’étude Health Behaviour in School-aged Children (HBSC) (rapport de recherche No 154), 2023, pag. 7 (link).

24 Indicatore «Utilizzo problematico dei social media (età: 11–15)», https://ind.obsan.admin.ch/it/indicator/monam/utilizzo-problematico-dei-social-media-eta-11-15

25 Obsan: Suizidales Erleben und Verhalten in der Bevölkerung in der Schweiz, 2023, pagg. 1-3.

26 Külling, Céline, et al. (2024). JAMES: Giovani, attività, media – rilevamento Svizzera, pag. 72.

27 Rapporto del Consiglio federale in adempimento dei postulati 22.3145 e 22.3017, CPS-N, «I Cantoni sono pronti per il cyber-perseguimento penale?».