Prise de position sur la réglementation des plateformes de communication pour protéger les enfants
Nécessité de réglementer
Du fait que la communication et l’acquisition d’informations se déplacent toujours davantage vers l’espace numérique et se déroulent sur des plateformes de communication conçues par de grands groupes technologiques privés selon leurs propres objectifs et intérêts économiques, il est indispensable d’assurer une plus grande transparence pour les utilisateurs, que leurs droits soient respectés et que les enfants et les jeunes en particulier soient protégés contre la violence et des contenus inappropriés.
Protection de l’enfance Suisse se réjouit par conséquent des débats publics autour du rôle et des obligations des plateformes de communication ainsi que d’éventuelles limites d’âge pour leur utilisation.
Hélas déjà reportée à plusieurs reprises, la consultation sur l’avant-projet de loi fédérale sur les plateformes de communication et les moteurs de recherche (LPCom) se fait toujours attendre. Compte tenu du fait que ces plateformes restent largement utilisées et que de nombreux enfants sont ainsi soumis à des formes de violence, Protection de l’enfance Suisse introduit les points suivants dans le débat public, dans le but de réglementer les plateformes de communication de sorte à protéger les enfants de la violence.
La Suisse est actuellement confrontée, de manière avérée, à un risque croissant d’exposition des enfants à la violence sexuelle en ligne, avec une protection lacunaire et un patchwork de réglementations. La loi sur la protection des données ne tient guère compte du fait que les jeunes enfants ne peuvent que difficilement évaluer les conséquences d’une publication de leurs données en ligne. Selon le code civil, la protection des enfants face aux dangers numériques incombe principalement aux parents. La loi fédérale sur la protection des mineurs dans les secteurs du film et du jeu vidéo apporte des améliorations ponctuelles, en obligeant certaines plateformes à prendre des mesures de protection de la jeunesse1, mais il manque toujours un cadre légal plus général à même d’obliger tous les prestataires de services numériques concernés à assumer leurs responsabilités et à protéger les enfants et les jeunes de conséquences néfastes de l’utilisation des plateformes de communication. C’est précisément ce que la future LPCom devra faire.
La violence contre les enfants et les jeunes sur les plateformes de communication
Violence sexuelle numérique envers des enfants
Selon l’étude JAMES, près de 50 % des jeunes en Suisse avaient été abordés en ligne en 2022 au moins une fois par une personne inconnue ayant des intentions sexuelles non souhaitées (à titre de comparaison, ce nombre était de 30 % en 2018 et de 19 % en 2014)2. Il ressort des résultats de l’étude pour l’année 2024 qu’au cours des deux dernières années, 33 % des jeunes interrogés avaient déjà été confrontés à des demandes d’inconnus voulant leur parler de sexualité sur Internet, des intentions sexuelles non souhaitées ont été exprimées à 32 % d’entre eux et 26 % ont reçu des demandes de photos érotiques. 8 % des sondés avaient reçu des demandes d’effectuer des actes sexuels devant une webcam3.
Les plateformes de communication en ligne facilitent l’accès direct aux enfants. Des études révèlent que les réseaux sociaux et les plateformes de jeux en ligne avec fonction de chat sont utilisés de manière ciblée par des personnes ayant des intentions pédocriminelles pour entrer en contact avec des enfants et des jeunes. Ceux-ci sont ensuite attirés sur des canaux de communication cryptés de bout en bout, où la surveillance n’est guère possible et où les enfants sont entraînés, sans encadrement, dans une conversation en vue d’une exploitation sexuelle4. Diverses infractions relevant de la notion de violence sexuelle numérique envers des enfants sont commises dans ce contexte : harcèlement sexuel massif, préparation d’un enfant à une rencontre avec le contact dans le but de commettre des actes sexuels (grooming) ou incitation à des actes sexuels devant une webcam, avant partage dans l’ombre de telles images et vidéos à des millions de reprises. La production et la diffusion de contenus pédocriminels constituent également de la violence sexuelle numérique, laquelle est alimentée par les plateformes de communication en ligne. Des algorithmes de prestataires propagent automatiquement des contenus illégaux à des utilisateurs et utilisatrices prétendument intéressés.
Le nombre de contenus pédocriminels sur Internet augmente de manière exponentielle. Des photos et vidéos d’enfants exposés à de la violence sexuelle sont partagées dans le monde entier en quelques secondes. S’y ajoute du matériel pédocriminel, potentiellement produit au moyen d’outils d’IA. Le centre national NCMEC (National Center for Missing and Exploited Children)5, qui exploite le service de signalement « CyberTipline », a reçu en 2023 plus de 36 millions de déclarations de suspicion de matériel pédocriminel et plus de 100 millions de fichiers joints – soit au total plus de 250’000 fichiers au contenu pédocriminel présumé par jour ou trois fichiers par seconde. Entre 2021 et 2023, le NCMEC a par ailleurs documenté une augmentation de 300 % des signalements portant sur le recrutement en ligne de mineurs à des fins d’exploitation sexuelle6. Selon l’Internet Watch Foundation (IWF)7, c’est surtout la catégorie des contenus extrêmes et particulièrement violents qui a augmenté8 et ces dernières années, plus de 95 % de ceux-ci montrent des enfants de moins de 14 ans9.
En 2023, fedpol a reçu du NCMEC 14’420 signalements de cas potentiellement pédocriminels en lien avec la Suisse – le nombre a plus que doublé depuis 202110. Selon l’Internet Watch Foundation, à raison de plus de 22’500 signalements, la Suisse était même au 4e rang mondial des plus grands hébergeurs de matériel pédocriminel11.
Beaucoup d’enfants semblent conscients des risques sur Internet et considèrent qu’ils sont eux-mêmes responsables de leur propre sécurité12.
La Suisse doit impérativement exercer aussi son devoir de protection dans l’espace numérique. Les enfants ne doivent pas être exposés au risque de graves délits sexuels. C’est pourquoi les plateformes de communication en ligne doivent aussi avoir l’obligation en Suisse d’appliquer des mesures de prévention et de protection face à la violence sexuelle numérique envers des enfants.
Selon Protection de l’enfance Suisse, la régulation des plateformes par une obligation de mesures de protection vérifiables et efficaces va plus loin qu’un âge légal minimal pour l’utilisation des réseaux sociaux. Afin d’empêcher dans toute la mesure du possible la diffusion de contenus pédocriminels sur le web et de protéger également les jeunes enfants n’ayant pas de compte personnel sur les réseaux sociaux ainsi que les jeunes ayant atteint l’âge légal minimal, il faut en effet que les prestataires soient soumis à une obligation systématique de rendre des comptes. Au vu des risques actuels, des limites d’âge sont néanmoins nécessaires. Compte tenu des offres disponibles de nos jours, une limite d’âge de 16 ans devrait être imposée pour ouvrir un compte à son nom sur les réseaux sociaux.
Les mesures légales visant à protéger les enfants contre la violence sexuelle numérique doivent être harmonisées au-delà des frontières nationales. C’est indispensable pour combler des lacunes et réclamer des comptes aux plateformes. En plus de nombreuses organisations de premier plan de la société civile, une telle harmonisation est aussi demandée par le think tank WeProtect Global Alliance, au sein duquel la Suisse est représentée par fedpol13.
L’Union européenne a de ce fait adopté en 2020 une stratégie pionnière pour une lutte plus efficace contre les abus sexuels visant des enfants14, laquelle veut harmoniser, par le biais de plusieurs mesures, la législation des États membres et obliger les plateformes de communication en ligne à prendre des mesures de protection : le règlement européen sur les services numériques (DSA Digital Services Act) oblige les prestataires de plateformes en ligne accessibles aux mineurs à prendre des mesures adéquates et proportionnées afin de garantir un niveau élevé de respect de la vie privée, de sécurité et de protection des mineurs. Les très grandes plateformes en ligne et les moteurs de recherche doivent procéder à un recensement régulier des risques découlant de la conception et de l’utilisation de leurs services, lequel doit porter, en plus du risque de diffusion de contenus illicites et des effets négatifs sur l’exercice des droits fondamentaux, également sur des effets préjudiciables en matière de protection des mineurs. Les plateformes doivent indiquer quelles mesures ont été prises et quel en est l’impact sur les risques identifiés. Le règlement européen sur la protection des données (RGPD) tient compte de la vulnérabilité accrue des enfants et des jeunes en définissant un âge minimum de 16 ans à partir duquel une personne peut consentir elle-même au traitement de données personnelles15. La Commission européenne a par ailleurs élaboré au printemps 2022 un projet de règlement visant à faciliter la détection et la suppression de contenus liés à l’exploitation sexuelle des enfants sur les plateformes et messageries, conçu comme une lex specialis du DSA. Il concrétise le risque à combattre, à savoir un service utilisé sur Internet à des fins d’abus sexuels sur des enfants, une notion qui englobe, selon la définition du projet de loi, aussi bien la diffusion de représentations pédocriminelles sur Internet que la prise de contact avec des enfants dans un but malveillant. Les plateformes pourraient être contraintes de vérifier l’âge des utilisatrices et utilisateurs et de prendre des mesures de réduction des risques adéquates et efficientes. Des mesures légales similaires ont récemment également été approuvées en Grande-Bretagne16 et en Irlande17.
Nos efforts de régulation doivent suivre le rythme de ceux entrepris dans l’espace européen, afin que les enfants et les jeunes de Suisse bénéficient d’une protection équivalente contre la violence sexuelle numérique et que les exploitants de plateformes aient l’obligation de rendre des comptes sur les concepts d’utilisation présentant des risques pour les enfants et les jeunes.
Violence psychologique : cyberharcèlement et discours de haine
Les jeunes utilisatrices et utilisateurs de plateformes de communication sont exposés au risque de violence psychologique. Un tiers des jeunes a déjà subi du cyberharcèlement18 et ce chiffre est en progression constante depuis dix ans. Les commentaires dégradants et insultants (les « discours de haine ») sont également fréquents sur les plateformes en ligne. Plus de 40 % des 15/16 ans ont déjà été concernés personnellement et ont subi un traitement discriminatoire du fait de leur apparence, de leur origine, de leur opinion ou de leur comportement. 19 Même quand des enfants et des jeunes sont simplement témoins de discours de haine, cela déclenche chez la plupart d’entre eux des réactions telles que la colère, la tristesse ou la peur.20
Du côté de la Confédération, il n’existe pas de mesures particulières pour protéger les enfants face aux discours de haine. Sur mandat du Parlement, la Confédération avait lancé en 2023 une campagne en ligne contre le cyberharcèlement. Celle-ci est malheureusement restée unique et aucune ressource supplémentaire n’a été mise à disposition.21 Un engagement continu de la part de la Confédération et des cantons s’impose. Le Parlement examine depuis pas mal de temps l’introduction éventuelle d’un nouvel article correspondant dans le code pénal. Il s’agirait certes d’un signal clair, mais d’autres mesures de prévention sont nécessaires et doivent notamment obliger les plateformes de communication à offrir une possibilité de signaler les commentaires dégradants ou insultants et à les effacer dans un délai maximal de 24 heures. Les auteurs de discours de haine doivent être bloqués par les exploitants de la plateforme. De plus, ceux-ci doivent assurer une modération des contenus selon des critères transparents pour prévenir les discours de haine.
Algorithmes addictifs et contenus dangereux comme violence structurelle
Les plateformes sont conçues de sorte à y retenir les utilisateurs le plus longtemps possible et à ce qu’ils consomment un maximum de contenus. Une « utilisation problématique d’Internet », telle qu’elle est mesurée par le système de monitorage Addiction et MNT (MonAM) de l’Office fédéral de la santé publique (OFSP), a pratiquement doublé entre 2017 et 2022 pour les jeunes de 15 à 19 ans.22 40 % des 11 à 15 ont déjà tenté sans succès de passer moins de temps sur les réseaux sociaux. Près de la moitié d’entre eux tente fréquemment de fuir des émotions négatives en se réfugiant sur les réseaux sociaux. 23 La structure des plateformes, incluant l’architecture des algorithmes, est conçue de sorte à stimuler les zones de curiosité, de plaisir et de récompense dans le cerveau des utilisateurs. Cela entraîne rapidement une dépendance, notamment chez les jeunes utilisatrices et utilisateurs. Du fait de la phase de développement de leur cerveau, ils ne sont pas encore en mesure de résister aux incitations des algorithmes. C’est pourquoi jusqu’à 15 % des enfants et des jeunes décrivent leur utilisation des réseaux sociaux comme problématique.24
Les algorithmes soumettent à l’utilisateur des contenus sur la base de ses propres comportements sur le réseau, si bien qu’elle ou il se retrouve dans un effet dit de « rabbit hole » où les contenus sont de plus en plus radicalisés. Vient ensuite une aggravation auto-alimentée qui conduit parfois à des mondes de contenus quasiment hermétiques : dépression, automutilation, consommation de drogues, suicide ou encore radicalisation religieuse sont des thèmes dans lesquels de nombreux jeunes sont plongés de plus en plus profondément sur les réseaux sociaux. Compte tenu du fait que près d’un quart des jeunes filles de 15 à 19 ans font état de pensées suicidaires fréquentes et que plus de 7 % ont fait une tentative de suicide au cours des cinq dernières années25, la diffusion ciblée de tels contenus est réellement alarmante. Les utilisateurs sont livrés à leurs flux et consomment ce qui leur est proposé. 49 % des jeunes hommes regardent au moins occasionnellement des vidéos violentes (24 % des jeunes filles), 6 % des adolescents le font même quotidiennement ou plusieurs fois par semaine.26
Le fait que des jeunes soient exposés à des contenus perturbants et blessants, voire traumatisants, doit être qualifié de violence structurelle et ne peut être accepté sans réaction. Des mécanismes de protection et une limitation du streaming s’imposent pour éviter une diffusion sans fin de nouveaux contenus. Les plateformes doivent empêcher activement les jeunes de s’enfoncer toujours davantage dans des contenus perturbants ou néfastes à leur développement.
Ce qu’il faut pour protéger les enfants sur les plateformes de communication
La LPCom devrait imposer des mesures globales pour protéger efficacement les enfants face à la violence. Les efforts de régulation ne doivent pas se limiter aux plateformes de communications en ligne, mais s’adresser aussi à d’autres prestataires de services numériques :
- Les plateformes de communication en ligne et les services d’hébergement doivent signaler aux autorités de poursuite pénale des contenus potentiellement illégaux dont ils ont connaissance ou qui leur ont été notifiés (règlement européen sur la protection des données (RGPD), en bloquer immédiatement l’accès et coopérer avec les autorités pour supprimer ces contenus dans les meilleurs délais.
- Les plateformes de communication en ligne et les services d’hébergement doivent aménager des procédures de signalement permettant aux utilisateurs de dénoncer des comportements répréhensibles, des contenus illégaux et de la violence, et coopérer avec des services spécialisés (p. ex. Take it down du NCMEC).
- Les plateformes de communication en ligne et les services d’hébergement doivent procéder à une analyse régulière des risques selon des critères définis, laquelle recense systématiquement
- dans quelle mesures des enfants sont exposés à la violence sexuelle numérique dans le cadre de l’utilisation de leurs services,
- si les moyens de prise de contact avec des enfants sont détournés à des fins criminelles
- ou si des contenus pédocriminels peuvent être propagés.
Un rapport devra être présenté à des autorités à définir au niveau fédéral sur le résultat de cette analyse des risques.
- Les plateformes de communication en ligne et les services d’hébergement doivent combattre les risques identifiés par des mesures ciblées, proportionnelles et à l’efficacité démontrée, en sachant que les obligations légales doivent être formulées de sorte à permettre de les adapter à tout moment à l’état des connaissances scientifiques et technologiques reconnues sur le plan international.
- Les utilisateurs qui propagent des discours de haine ou importunent sexuellement d’autres utilisateurs doivent être bloqués par les plateformes.
- Les plateformes de communication en ligne doivent être soumises à l’obligation de mettre en place des systèmes de contrôle de l’âge et de vérification de données sensibles. Un âge minimal doit être instauré pour l’utilisation des services, tenant compte du niveau de développement d’un être humain en pleine croissance. Si les risques actuels ne sont pas éliminés, l’âge minimal pour ouvrir un compte sur les réseaux sociaux doit être fixé à 16 ans. La loi doit prévoir des moyens de pression, par exemple des amendes élevées, pour forcer les plateformes à appliquer les limites d’âge.
- Les plateformes de communication doivent limiter le flux pour les jeunes utilisatrices et utilisateurs, de sorte qu’il ne se poursuive pas à l’infini. De plus, l’architecture de la plateforme doit garantir que les jeunes utilisateurs ne soient pas constamment entraînés plus profondément dans un domaine thématique. L’effet renforçateur des algorithmes doit être supprimé. Il faut empêcher la radicalisation, des comportements d’automutilation et l’accès à des contenus de plus en plus extrêmes.
- Les jeunes ont besoin d’échanges sociaux et de sentir qu’ils font partie de la société. Le contact avec d’autres jeunes par le biais des plateformes de communication peut prendre une place très importante surtout pour des jeunes marginalisés. Il faut des plateformes sûres et exemptes de « dark patterns » addictifs. L’âge minimal d’utilisation pourrait être inférieur si les plateformes sont sûres.
- Les magasins d’applications doivent indiquer les risques que les applications proposées représentent pour des enfants et des jeunes.
- Le système d’analyse des risques doit être associé à des sanctions, financières ou autres. À cet égard, il serait souhaitable que les prestataires de services numériques constituent un fonds dédié à la prévention d’infractions sexuelles en ligne envers des enfants. Alors que des groupes comme Meta ou TikTok enregistrent des bénéfices en milliards à l’échelle planétaire et que l’utilisation de leurs services contribue de manière déterminante à la propagation de la violence sexuelle en ligne, ils n’ont actuellement aucune obligation en Suisse de verser une contribution à la prévention ou de participer de tout autre manière aux coûts de ces phénomènes de société.
- La Confédération doit faire davantage de prévention contre la violence sexuelle envers des enfants et des jeunes sur Internet ainsi que les discours haineux et d’autres formes de violence, et allouer les moyens nécessaires à cet effet.
Dans le cadre du processus législatif, Protection de l’enfance Suisse souhaiterait par ailleurs que l’on aborde activement la question de savoir dans quelle mesure les plateformes devraient être tenues d’utiliser de manière ciblée, conforme au droit et proportionnée, les nouvelles mesures technologiques telles que les outils d’intelligence artificielle pour détecter du matériel pédocriminel. Le droit des enfants à la protection de leur intégrité et contre l’exploitation sexuelle doit être pris en compte au même titre que d’autres droits fondamentaux. Compte tenu du fait que les autorités de poursuite pénale sont confrontées à des problèmes massifs de ressources encore accentués dans le domaine de la cyberpédocriminalité27, il est de plus urgent de se demander comment combattre efficacement la cyberpédocriminalité face à l’ampleur du phénomène.
1 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, Instagram-Teen-Accounts : Hoffnung für den Kinderschutz?, dans : Jusletter 4 novembre 2024
2 Étude James 2022, p. 60-63, publiée sur : https://www.zhaw.ch/storage/psychologie/upload/forschung/medienpsychologie/james/2018/Bericht_JAMES_2022_de.pdf
3 Étude James 2024, p. 68 ss, publiée sur : https://www.zhaw.ch/de/psychologie/forschung/medienpsychologie/mediennutzung/james/
4 Voir p. ex. : Stefano Caneppele et al, Mesures de protection des enfants et des jeunes face aux cyber-délits sexuels. Étude sur mandat de l’Office fédéral des assurances sociales. Juillet 2022.
Ou aussi : WeProtect Global Alliance, Global Threat Assessment 2023, p. 22
5 Le NCMEC est une organisation américaine à but non lucratif qui gère le service de signalement CyberTipline permettant de dénoncer des suspicions de matériel pédocriminel, de trafic d’enfants à des fins sexuelles et d’autres formes d’exploitation sexuelle des enfants. Il est à la disposition tant des particuliers que de prestataires américains de services électroniques qui, selon la législation américaine, ont l’obligation de dénoncer de tels faits. Le NCMEC effectue le tri des notifications et les transmet à fedpol si un cas peut être mis en relation avec la Suisse (cf. également le rapport du Conseil fédéral en réponse aux postulats 19.4016 et 19.4105, p. 13 ss).
6 CyberTipline 2023 Report, publié sur : https://www.missingkids.org/cybertiplinedata
7 L’Internet Watch Foundation (IWF) est une organisation à but non lucratif basée au Royaume-Uni qui exploite le plus grand service européen de signalement de matériel pédocriminel. L’IWF a aussi la possibilité légale de rechercher activement ce type de matériel.
8 IWF annual report 2023, publié sur :
https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-severity/
9 IWF annual report 2023, publié sur :
https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-age/
10 fedpol rapport 2023, publié sur :
https://fedpol.report/fr/report-2023/fedpol-en-chiffres/pedocriminels-a-laffut/
ainsi que le rapport du Conseil fédéral donnant suite aux postulats 19.4016 et 19.4105, p.15.
11 L’IWF effectue le tri des signalements. La statistique de l’IWF citée ici comprend des signalements qui contiennent du matériel pédocriminel punissable selon la législation britannique et dont l’URL renvoie à un serveur en Suisse. Publiée sur :
https://www.iwf.org.uk/annual-report-2023/trends-and-data/geographical-hosting-urls/
12 ECPAT, Eurochild, Terre des Hommes Pays-Bas, Down to Zero. VOICE Project, Speaking up for change. Children’s and caregivers’ voices for safer online experiences. 2024. Publié sur : https://ecpat.org/resource/voice-report-speaking-up-for-change-childrens-and-caregivers-voices-for-safer-online-experiences/
13 WeProtect Global Alliance, Global Threat Assessment 2023, p. 8
14 Protection de l’enfance Suisse n’utilise pas le terme « abus sexuel » parce qu’il minimise les faits. Dans ce document, il est utilisé uniquement pour reprendre la terminologie du Journal officiel de l’Union européenne (EUR-Lex) en lien avec la stratégie de l’UE ou de la législation européenne.
15 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, Instagram-Teen-Accounts : Hoffnung für den Kinderschutz?, dans : Jusletter 4 novembre 2024, p. 4 ss
16 https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer
18 Külling, Céline, et al. (2024). JAMES : Jugend, Aktivitäten, Medien–Erhebung Schweiz, p. 63 s.
19 EU Kids Online 2019, p. 40.
20 Külling et al. : JAMESfocus, Hassrede im Internet, 2021, p. 14 (lien)
21 Mo. 20.3687 Campagne sur les médias sociaux pour sensibiliser les enfants et les jeunes au harcèlement et au cyberharcèlement (lien)
22 Indicateur « Utilisation problématique d’Internet (âge : 15+)» https://ind.obsan.admin.ch/fr/indicator/monam/utilisation-problematique-dinternet-age-15
23 Delgrande Jordan M. & Schmidhauser V. (2023). Comportements en ligne des 11 à 15 ans en Suisse – Situation en 2022 et évolution récente – Résultats de l’étude Health Behaviour in School-aged Children (HBSC) (rapport de recherche No 154) 2023, p. 7 (lien)
24 Indicateur « Usage problématique des réseaux sociaux (âge : 11–15) » https://ind.obsan.admin.ch/fr/indicator/monam/usage-problematique-des-reseaux-sociaux-age-11-15-ans
25 Obsan : Pensées et comportements suicidaires au sein de la population suisse, 2023, p. 1-3
26 Külling, Céline, et al. (2024). JAMES : Jugend, Aktivitäten, Medien–Erhebung Schweiz, p. 72.
27 Rapport du Conseil fédéral en réponse aux postulats 22.3145 et 22.3017, CPS-N, Poursuites pénales en matière de cybercriminalité. Efficacité des cantons.
-
Réglementation des plateformes de communication pour protéger les enfantsPDF 0,7 MB