Dossier thématique

Environnement numérique

Protection des enfants en environnement numérique

Source : Rapport Annuel 2025

#SID2026

Not a safer place : malgré certaines avancées, l’Internet n’est toujours pas un lieu sûr pour les enfants

« La protection des enfants en ligne est un combat de longue haleine, comparable à celui mené depuis des décennies contre le tabac, l’alcool ou d’autres drogues. »

Charel Schmit

En cette journée du Safer Internet Day 2026, l’office de l’Ombudsman fir Kanner a Jugendlecher (OKAJU), défenseur des droits de l’enfant, publie un dossier thématique intitulé « Protection des enfants en environnement numérique ». Vous y trouverez nos recommandations issues des rapports annuels 2024 et 2025, ainsi que celles de nos Young Advisors, formulées spécialement à l’occasion de cette journée. La mise en œuvre d’un système de vérification d’âge étant un thème phare de l’actualité, l’OKAJU tient à rappeler que 69 % des adolescents et 88 % des jeunes adultes au Luxembourg se disent en accord avec un système de vérification de l’âge sur les plateformes . De plus, à la question de savoir quels changements ils souhaitent dans le monde numérique, la majorité des jeunes de 12 à 30 ans ont répondu « fixer une limite d’âge pour accéder à Internet/au smartphone » et « mieux contrôler/restreindre le contenu en ligne » .

Plaidoyer de l’OKAJU pour un Internet plus sûr

Après plus de vingt ans de stratégies pour un « Internet plus sûr pour les enfants », essentiellement centrées sur la sensibilisation, il est plus que temps de changer de cap. Ce changement de cap suppose notamment de proposer systématiquement aux enfants davantage d’offres d’activités analogues et alternatives – culture, sport, engagement associatif, espaces de rencontre – afin que le temps libéré des écrans puisse se transformer en expériences positives. En cohérence avec le principe rappelé récemment par la Commission européenne – selon lequel ce qui est illégal hors ligne doit l’être tout autant en ligne[1] –, l’OKAJU plaide, depuis 2024, pour un véritable « package » de protection des enfants contre les violences et autres préjudices en milieu numérique, inspiré de la prévention en santé publique (prévention primaire, secondaire, tertiaire). Ce paquet combine un cadre légal ambitieux (instauration d’un âge minimum légal pour l’exposition aux écrans, la possession de smartphones et d’appareils connectés, l’accès autonome à Internet et aux réseaux sociaux (sans supervision), obligations de vérification d’âge, responsabilité pour les services en ligne), l’intégration du principe de « sécurité dès la conception » (safety by design) par les acteurs technologiques, ainsi que la responsabilisation conjointe de l’État, des plateformes et des adultes  (renforcement de BEE SECURE, meilleure coordination protection de l’enfance/cybersécurité, limitation du temps d’écran, éducation aux médias et soutien à la parentalité numérique).

Garantir les droits à l’information, à l’expression et à la participation

D’un point de vue fondé sur les droits de l’enfant, le droit à la protection ne saurait toutefois être le seul prisme : les enfants ont aussi droit à l’information, à la liberté d’expression et à la participation, y compris dans l’environnement numérique. Ces droits peuvent cependant se réaliser pleinement dans le cadre d’un accès à Internet encadré, progressif et supervisé par des adultes, qui garantit à la fois la participation des enfants et leur protection contre les préjudices les plus graves.

Avant le premier smartphone, le réflexe safe phone

Des portables sécurisés pour enfants (safe phones) existent déjà sur le marché européen et international, mais ne sont pas mis en avant au Luxembourg. Deux études de 2025[2] et 2026[3] montrent que la possession d’un premier smartphone avant 13 ans est associée à une nette dégradation de la santé mentale et physique, de l’adolescence jusqu’au début de l’âge adulte (plus de dépression, troubles du sommeil, obésité, idées suicidaires, agressivité, détachement de la réalité). Tout comme l’OKAJU, l’étude de 2025 recommande une approche de précaution en santé publique similaire à celle de l’alcool ou du tabac. A la lumière de ces études et d’autres études récentes pointant sur les violences et autres préjudices dont sont victimes les enfants dans l’environnement numérique [4], l’OKAJU recommande depuis 2024, une interdiction de possession de smartphones avant 15 ans[5]. Dans ce cadre, l’OKAJU recommande de faire des portables sécurisés pour enfants (safe phones) un élément central de la prévention primaire. Il s’agirait d’appareils limités aux appels et SMS, sans accès à Internet ni aux réseaux sociaux, proposés comme offre standard par les principaux opérateurs luxembourgeois avant l’âge légal de possession d’un smartphone connecté.

Evolutions et avancées récentes

Depuis les recommandations du rapport annuel 2024 de l’OKAJU sur la protection des enfants face aux outils connectés, plusieurs avancées notables ont été faites.
Le Règlement européen sur les services numériques (DSA) est désormais pleinement applicable et consacre une responsabilité accrue des plateformes pour le retrait rapide des contenus illicites et la transparence de leurs algorithmes. Le 30 avril 2025, suite à la publication de la recommandation générale de l’OKAJU sur la protection des enfants face à l’industrie pornographique du 11 février 2025, une motion a été déposée par la députée Paulette Lenert (LSAP) au sujet de la protection des mineurs face à l’exposition aux contenus pornographiques en ligne[6]. Celle-ci a été renvoyée en Commission des Médias et des Communications. Le 21 janvier 2026, à la Chambre des Députés, une heure d’actualité du groupe politique DP (à la demande de la députée Mandy Minella) a eu lieu au sujet de l’accès aux réseaux sociaux des jeunes suite à la légifération en Australie introduisant une interdiction aux moins de 16 ans.

Au niveau de la législation nationale, le projet de loi 8625 sur les médias a été déposé le 30 septembre 2025 par Madame la ministre de la Justice Elisabeth Margue ; une proposition de loi sur les sociétés écrans et la responsabilité des entreprises a été déposée par le député Franz Fayot (LSAP) le 2 décembre 2025 ; et la proposition de loi 8690 sur les réseaux sociaux a été déposé par les députés Francine Closener et Ben Polidori (LSAP) le 21 janvier 2026.

Fin 2024, le ministère de l’Education, de l’Enfance et de la Jeunesse (MENJE) a lancé deux campagnes nationales visant à réduire le temps d’écran, à promouvoir des activités physiques/familiales non numériques et à renforcer la protection des enfants dans l’environnement numérique : « Screen-Life-Balance » et « Sécher.digital ». L’interdiction de l’usage du smartphone dans les écoles fondamentales et maisons relais et sa limitation dans le secondaire commencent à produire des effets positifs : davantage d’interactions sociales directes entre élèves, une baisse observée de la violence et du cyberharcèlement, comme l’a souligné le ministre de l’Éducation nationale à la Chambre des Députés le 21 janvier 2026[7].

Limitation d’accès aux réseaux sociaux : une demi-mesure

Légiférer sur l’âge d’accès aux réseaux sociaux serait une avancée, mais constituerait un simple pansement sur une plaie ouverte nécessitant une opération. Les risques majeurs liés à l’usage d’Internet et des appareils connectés par les enfants dépassent largement le seul périmètre des réseaux sociaux.  Il convient en outre de rappeler qu’en vertu de l’article 8 du RGPD, pleinement applicable dans l’Union européenne depuis le 25 mai 2018, les moins de 16 ans ne peuvent en principe utiliser des services en ligne tels que les réseaux sociaux qu’avec le consentement vérifiable de leurs parents ou responsables légaux. Autrement dit, le cadre juridique permettant de limiter l’accès des enfants aux réseaux sociaux existe déjà depuis 2018, mais l’OKAJU déplore qu’il n’a pas été mis en œuvre avec la rigueur nécessaire. Avec cette demi-mesure, les enfants continueraient d’évoluer, souvent sans supervision, dans un Internet loin d’être sûr, un lieu de non-droit : exploitation commerciale de leurs données, exposition précoce à la pornographie et au matériel d’abus sexuel d’enfants (CSAM), contenus haineux ou discriminatoires, tentatives de cybergrooming[8], de radicalisation, de sextorsion – notamment via des jeux et plateformes « ludiques » comme Roblox[9] ou Fortnite[10]. Sans compter les sites et forums qui incitent à la violence, la misogynie, l’automutilation, au suicide… et bien d’autres contenus nuisibles. De plus, le phénomène de « brain rot », utilisé pour décrire la fatigue cognitive et la baisse de concentration liées au défilement incessant de contenus courts, ne concerne pas seulement les réseaux sociaux mais l’ensemble des formats numériques conçus pour capter l’attention (flux vidéo, plateformes de streaming, jeux, messageries, etc.). En lien avec l’ « amnésie numérique[11] » et le « popcorn brain[12] », il constitue un danger supplémentaire pour le développement des enfants, en fragilisant l’attention soutenue, la mémoire en profondeur et la capacité à se concentrer.

Enfin, comme le résume Tony Allen, expert mondial de l’« age assurance» et éditeur technique de la norme ISO/IEC 27566, une régulation fondée sur la seule interdiction d’accès ne peut fonctionner que si elle combine cinq dimensions : légitimité morale, réduction de la demande, alternatives hors ligne, capacité de vérification crédible et absence de déplacement vers des espaces plus risqués[13]. Or, aucune de ces conditions n’est aujourd’hui pleinement réunie.

L’IA, un multiplicateur de risques pour les enfants

L’intelligence artificielle expose déjà les enfants à de nouveaux risques majeurs, entre autres des applications de « nudification » et de deepfakes ou encore des chatbots/ compagnons IA[14] qui tiennent des propos sexualisés[15] et entretiennent une forte dépendance émotionnelle. A noter que, selon un rapport d’Internet Matters (UK) de 2025, un enfant sur huit utilisant des chatbots d’IA le fait parce qu’il n’a « personne d’autre à qui parler »[16] . Des experts mettent d’ailleurs en garde contre l’émergence d’une génération qui apprend à nouer des liens affectifs avec des entités dépourvues de capacité d’empathie et de soin[17]. Elle soulève aussi des inquiétudes quant à son impact cognitif : un recours systématique à l’IA pour, par exemple, répondre aux questions, faire les devoirs ou générer des contenus risque d’atrophier l’effort intellectuel des enfants, en externalisant toujours davantage leur mémoire et leur capacité de raisonnement. Face à cette réalité, l’OKAJU souligne qu’il est indispensable de mettre en place une régulation ambitieuse et contraignante de ces outils (services, applications, jouets connectés), qui impose par défaut la protection des enfants.Une responsabilité multi-niveaux

Si les enfants restent vulnérables aux abus, à l’exploitation et à la violence en ligne, c’est avant tout parce que les dispositifs qui les entourent – techniques, politiques, financiers, internationaux et familiaux – ne remplissent toujours pas pleinement leur rôle protecteur[18] :

  • Entreprises technologiques et plateformes numériques : le principe de « safety by design », qui place la responsabilité de la sûreté des enfants au cœur de la conception des services, n’a pas été suffisamment intégré et appliqué par la plupart des acteurs du secteur. Elles continuent trop souvent à traiter la sécurité des enfants comme un enjeu de conformité minimale plutôt que comme un devoir de diligence renforcée.
  • Gouvernements : la protection des enfants en ligne reste encore reléguée au rang de note de bas de page dans les politiques publiques plutôt que d’être une priorité réglementaire. Cela dit, ces derniers mois, une attention accrue est accordée par des Gouvernements européens à la protection numérique des enfants.
  • Bailleurs de fonds : les financements consacrés à la prévention des préjudices numériques ne représentent qu’une fraction de ce qui serait nécessaire pour être à la hauteur de l’ampleur de la menace.
  • Organisations internationales : la réponse de celles-ci reste très en‑deçà de l’urgence que cette crise impose.
  • Personnes en charge de l’éducation et des soins (parents/représentants légaux, proches, professionnels de l’éducation formelle et non-formelle) : on attend d’eux qu’ils soient la dernière ligne de défense, sans leur donner les outils, le soutien ni le pouvoir nécessaires pour résister à des algorithmes valant des milliards.

Quelques données clés

A l’échelle européenne et internationale

  • D’après des études reprises dans un rapport récent du Parlement européen, 97 % des jeunes se connectent à internet tous les jours et 78 % des 13‑17 ans consultent leur appareil au moins une fois par heure. Parallèlement, un mineur d’âge sur quatre aurait un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est‑à‑dire assimilable à une forme de dépendance[19].
  • Selon l’Eurobaromètre 2025, plus de 90 % des Européens estiment qu’il est urgent d’agir pour protéger les enfants en ligne, notamment face à l’impact négatif des réseaux sociaux sur la santé mentale (93 %), au cyberharcèlement (92 %) et à la nécessité de limiter l’accès aux contenus inadaptés (92 %).
  • Les enfants de l’UE demandent une meilleure protection en ligne. Ils appellent en particulier à davantage de conseils sur la sécurité numérique, à une réglementation plus protectrice à leur égard et à une implication renforcée des parents[20].
  • Selon un rapport d’Europol de 2024, d’ici 2026, 90 % du contenu en ligne pourrait être généré par l’intelligence artificielle[21].

 

Exemples de documentation sur les préjudices liés à l’environnement numérique

 

Endnotes

[1] Thomas Reignier, porte-parole pour la Commission européenne, a exprimé que via le DSA, l’Europe replace la responsabilité là où elle doit être, sur les plateformes en ligne : “for a very long time big tech platforms were above the law, behaving like they were too big to care. But thanks to our legislation, the wild west is over, at least in Europe. And our principle is clear and simple – what is illegal offline, must be illegal online” : https://www.linkedin.com/posts/thomas-regnier-24a05810b_we-have-recently-seen-many-accusations-against-activity-7424849788833267712-MUgJ/?utm_source=social_share_send&utm_medium=android_app&rcm=ACoAAAmu_VUBooSC0j_xPmWW24-feFqL1YJa5fc&utm_campaign=copy_link

[2] https://www.tandfonline.com/doi/full/10.1080/19452829.2025.2518313

[3] https://pubmed.ncbi.nlm.nih.gov/41324306/

[4] Voir le chapitre C du rapport annuel 2024 de l’OKAJU ainsi que le chapitre sur la protection dans l’environnement numérique du rapport annuel 2025 de l’OKAJU.

[5] Voir le chapitre C du rapport annuel 2024 de l’OKAJU. Voir aussi l’article paru le 13 août 2025 dans Le Monde : « Il faut interdire la vente de smartphones aux moins de 15 ans » alertent les pédiatres Sylvie Dieu Osika et Eric Osika et la psychologue Karine de Leusse dans une tribune au « Monde », https://www.lemonde.fr/idees/article/2025/08/13/il-faut-interdire-la-vente-de-smartphones-aux-moins-de-15-ans_6629035_3232.html

[6] https://wdocs-pub.chd.lu/docs/Motions_Resolutions/Motion_4566/20250513_Dep%C3%B4t.pdf

[7] https://www.chd.lu/lu/seance/3063

[8] Le terme « grooming » est utilisé lorsque quelqu’un (adulte ou non) crée une relation, une confiance et un lien émotionnel avec un enfant ou un jeune dans le but de le manipuler, de l’exploiter et d’en abuser sexuellement. Lorsqu’il y a une telle approche et manipulation pour exercer une emprise sur Internet, on parle de « cybergrooming ».

[9] https://www.roblox.com/

[10] https://www.fortnite.com/

[11] On entend par « amnésie numérique » le fait de ne plus retenir certaines informations (numéros, mots de passe, itinéraires, dates, etc.) parce qu’on les délègue systématiquement à des appareils ou services numériques. C’est une forme de trouble de la mémoire liée à la surutilisation du numérique, qui encourage le cerveau à « lâcher prise » sur ce qu’il pourrait normalement mémoriser.

[12] Le « popcorn brain » désigne un état où le cerveau, sur‑stimulé par un flux continu de contenus numériques, saute sans cesse d’un stimulus à l’autre, rendant la concentration prolongée beaucoup plus difficile.

[13] https://solicab.com/blog/f/does-prohibition-work

[14] Par exemple, voir : https://www.internetmatters.org/hub/press-release/new-report-reveals-how-risky-and-unchecked-ai-chatbots-are-the-new-go-to-for-millions-of-children/

[15] Par exemple, voir : https://www.telegraph.co.uk/business/2025/07/16/ai-girlfriend-musk-app-12-year-olds/

[16] https://www.internetmatters.org/wp-content/uploads/2025/07/Me-Myself-and-AI-Chatbots-Report-_-Internet-Matters.pdf

[17] https://bmjgroup.com/concern-over-growing-use-of-ai-chatbots-to-stave-off-loneliness/

[18] Liste inspirée de celle publiée par l’ONG ChildSafeNet : https://www.linkedin.com/posts/anil-raghuvanshi-84a35715_saferinternetday-saferinternetday-childonlineprotection-activity-7425746385788080128-mZoj/?utm_source=share&utm_medium=member_android&rcm=ACoAAAmu_VUBooSC0j_xPmWW24-feFqL1YJa5fc

[19] https://www.europarl.europa.eu/news/fr/press-room/20251120IPR31496/il-faut-avoir-16-ans-pour-acceder-aux-reseaux-sociaux-selon-les-deputes

[20] Plateforme européenne pour la participation des enfants (2024). Résultats de la consultation avec des enfants sur les systèmes intégrés de protection de l’enfance : https://eu-for-children.europa.eu/system/files/2024-03/ConsultationReport_ICPS_FINAL_08.03.2024.pdf

[21]https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf

Protection des enfants en environnement numérique

Protection des enfants dans l’environnement numérique. L’OKAJU consacre une attention soutenue à la protection des enfants dans l’espace numérique, dans un contexte d’exposition précoce et massive des enfants aux écrans, smartphones et contenus en ligne à risque. Malgré des mesures nationales et européennes récentes (Digital Services Act, campagnes, restrictions en milieu scolaire), la réalité montre un accès non encadré et des risques en croissance. Le chapitre revendique une stratégie intégrée : fixer un âge minimum légal de 15 ans pour l’autonomie numérique et l’accès aux réseaux sociaux ; interdiction d’exposition aux écrans en bas âge (0-3 ans) ; imposer des contrôles parentaux et des dispositifs alternatifs (safephones) ; renforcer la coordination institutionnelle et l’adaptation régulière du cadre législatif. L’urgence est de placer l’intérêt supérieur de l’enfant au cœur des politiques numériques, avec une mobilisation collective et des actions concrètes pour garantir leur sécurité et leur santé dans l’environnement numérique.

Extrait du rapport annuel 2024 - Chapitre 4

Violences numériques : protégeons la sphère privée des enfants dans un environnement numérique plus safe !
La numérisation et l’IA accentuent les risques auxquels les enfants font face en ligne : cyberharcèlement, contenus inadaptés, manipulation, cybergrooming et atteintes à la vie privée. Malgré certaines avancées éducatives, la violence numérique se banalise et dépasse parents comme jeunes. Les constats internationaux et nationaux montrent l’impact sur le bien‑être des enfants et appellent à renforcer législation, prévention et protection numérique pour garantir un environnement réellement plus sûr.

Téléchargez le PDF

Extrait du rapport annuel 2025 - Chapitre A

La protection des enfants en environnement numérique
L’environnement numérique pose des défis croissants pour la protection des enfants, tant en termes de violences (p. ex. cyberharcèlement, sextorsion, grooming) que de préjudices liés à l’utilisation d’outils numériques.

Téléchargez le PDF

Nos recommandations 2025

Placer l’intérêt supérieur de l’enfant au coeur des politiques du numérique

L’environnement numérique doit être conçu et régulé conformément aux exigences de la Convention des Nations Unies relative aux droits de l’enfant (CRDE) (protection contre toute violence, principe de précaution).

Avant cet âge, la supervision effective et le contrôle parental doivent être obligatoires.

Par exemple, permettant uniquement la communication et les fonctions basiques (sans navigation Internet, sans accès aux réseaux sociaux, ou à des réseaux non sécurisés).

y compris les contenus – réels, virtuels ou générés par intelligence artificielle – à caractère pornographique ou incestueux, promouvant la violence ou impliquant du matériel d’abus sexuel d’enfants (CSAM) ou dépeignant des majeurs présentés comme des enfants. Interdire explicitement la production, la diffusion et la promotion de ces contenus sur toutes les plateformes et mettre en place des outils techniques de détection et de retrait immédiat, sous la supervision d’autorités compétentes. Prévoir des sanctions fortes et proportionnées en cas de non-respect, conformément aux standards européens et internationaux (DSA, RGPD).

  1. renforcer la coordination entre l’école, les familles, les associations, les professionnels, les autorités de protection et les acteurs de la cybersécurité ;
  2. créer une plateforme interinstitutionnelle d’analyse et d’échange de « case reviews » interdisciplinaire et multiprofessionnelle pour l’analyse et le suivi des cas dans une logique systémique ;
  3. mettre en place une unité nationale de lutte contre la cybercriminalité liée à l’exploitation des enfants intégrée au système de protection de la jeunesse
  1. sensibiliser les enfants, les parents et les professionnels aux risques numériques et
    aux bonnes pratiques ;
  2. intégrer une perspective de santé publique pour évaluer l’impact psychologique et
    social des violences numériques ;
  1. renforcer les dispositifs de détection et d’intervention rapide (i.e. renforcer les mécanismes de la BEE SECURE Stopline, renforcement du rôle de l’ALIA) ;
  2. effectuer un suivi des signalements et sanctionner les auteurs ;
  3. créer des fonds de dédommagement, des services de soutien psychologique et juridique aux victimes ;
  4. mettre en place des formations spécialisées obligatoires pour les professionnels voués à intervenir dans l’évaluation et la prise en charge des situations à risque ;
  5.  offrir un soutien aux personnes addictes à la pornographie.

Les recommandations de nos Young Advisores

Safer Internet Day (Messages des OKAJU Young Advisors)

Dans le cadre du Safer Internet Day 2026, les jeunes conseillers de l’OKAJU souhaitent partager leurs visions et leurs recommandations pour un internet plus sûr. En tant que génération qui a grandi avec les réseaux sociaux, ils sont conscient(e)s des opportunités mais aussi des dangers du monde numérique.

Les dangers constatés :

  • Prédateurs en ligne et harcèlement
    Beaucoup de jeunes sont victimes de harcèlement sur les réseaux sociaux ou font face à des personnes mal intentionnées en ligne. Les réseaux sociaux ne constituent pas un environnement sûr pour les jeunes : adultes contactant des mineurs avec de mauvaises intentions, stalking en ligne, partage de contenus inappropriés… Les jeunes ont peu de protection en ligne. Ces expériences touchent de nombreux jeunes au Luxembourg.
  • Cyberharcèlement et anonymat
    L’anonymat offert par les plateformes encourage des comportements agressifs que les gens n’oseraient jamais avoir en face à face. Les stéréotypes et la haine se propagent facilement, car beaucoup pensent qu’ils peuvent tout dire en se cachant derrière un « masque numérique ».
  • Impact sur la santé mentale
    Les tendances et stéréotypes véhiculés sur les réseaux sociaux peuvent aggraver des situations existantes, notamment les troubles alimentaires et d’autres problèmes de santé mentale et physique.
  • Intelligence artificielle et désinformation
    Avec la popularisation de l’IA, il devient difficile de distinguer le vrai du faux. Tout ce que nous voyons en ligne doit être remis en question, ce qui crée une pression constante. La désinformation et les fake news sont des défis majeurs — donc NOS défis au quotidien.
  • Pornographie
    Les contenus pornographiques sont trop facilement accessibles aux jeunes. Cette facilité d’accès contribue à la masculinité toxique, corrompt l’image des femmes et peut mener à la dépendance, avec des conséquences sur le développement et le bien-être des jeunes.

Nos recommandations :

  1. Protection renforcée des mineurs de moins de 16 ans
    Tous les comptes de moins de 16 ans devraient être automatiquement paramétrés en mode privé. Une interdiction totale serait contre-productive, mais des restrictions claires sont nécessaires.
  2. Amélioration des mécanismes de signalement
    Les plateformes doivent améliorer la détection de contenus nuisibles, y compris en luxembourgeois et dans les autres langues actuellement mal détectées. Le signalement doit être plus efficace.
  3. Éducation numérique renforcée dans les écoles
    Le curriculum doit mieux couvrir les dangers réels des réseaux sociaux et les comportements sûrs en ligne. L’éducation doit inclure la sécurité, le respect et l’esprit critique, notamment envers l’IA et la désinformation.
  4. Contrôle d’accès à la pornographie
    Des mesures strictes doivent empêcher l’accès des mineurs aux contenus pornographiques.
  5. Partage des réussites – “Success stories”
    Il est important de communiquer davantage sur les cas où des prédateurs ont été arrêtés grâce à la police. Cela montre l’importance de porter plainte et encourage d’autres jeunes à le faire.

L'OKAJU a publié à ce sujet

Child protection in the digital world (Handout FRA Vienne 2026))

Based on its 2024 and 2025 annual reports, the Ombudsman for Children and Adolescents (OKAJU) proposes comprehensive, child‑centred recommendations to strengthen protection online, regulate access, prevent online violence, and ensure coordinated prevention, enforcement, and victim support.

(ENGLISH, PDF)

Observation générale no 25 (2021) sur les droits de l’enfant en relation avec l’environnement numérique

L’Observation générale n°25 clarifie comment les droits de l’enfant s’appliquent dans l’environnement numérique. Elle souligne que les États doivent garantir un accès sûr, inclusif et équitable aux technologies, tout en protégeant les enfants contre les risques en ligne, notamment la désinformation, l’exploitation et l’usage abusif de leurs données. Elle promeut la participation des enfants, la transparence des acteurs numériques et l’intégration des droits de l’enfant dans toutes les politiques digitales.on, enforcement, and victim support.

Observation générale n°25

BEE SECURE RADAR 2026

L’Observation générale n°25 clarifie comment les droits de l’enfant s’appliquent dans l’environnement numérique. Elle souligne que les États doivent garantir un accès sûr, inclusif et équitable aux technologies, tout en protégeant les enfants contre les risques en ligne, notamment la désinformation, l’exploitation et l’usage abusif de leurs données. Elle promeut la participation des enfants, la transparence des acteurs numériques et l’intégration des droits de l’enfant dans toutes les politiques digitales.on, enforcement, and victim support.

BEE SECURE RADAR 2026

Rapport de l'ANSES

Rapport de l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail), publié le 13 janvier 2026 concernant les usages des réseaux sociaux et la santé des adolescents, fruit de 5 ans de travail et de l'analyse de plus de 1 000 études

Vers le rapport

Rapport « Enfants et écrans – À la recherche du temps perdu »

(avril 2024) rédigé par la Commission sur l’exposition des enfants aux écrans installée par le Président de la République française, co présidée par Servane Mouton (neurologue) et Amine Benyamina (psychiatre addictologue), et composée de huit autres membres experts (Bernard, Borst, Desaint, G’sell, Missir, Rolland, Veret, Zolynski)

Vers le PDF

Protection des enfants et enjeux face à l’industrie pornographique

L’OKAJU rappelle sa recommandation générale sur la protection des enfants face à l’industrie pornographique : le législateur luxembourgeois doit transposer sans délai les cadres européens et intégrer dans le droit national des obligations strictes face à cette industrie (vérification de l’âge, contrôle parental, interdiction du ciblage des mineurs, sanctions). Il s’agit de lutter contre la triple victimisation des enfants : l’exploitation directe dans la production de matériel d’abus sexuel d’enfants (CSAM), l’exposition passive et non régulée à des contenus pornographiques qui ont des conséquences dévastatrices sur leur santé, leur développement et leurs relations sociales, ainsi que la normalisation de la violence sexuelle et l’augmentation des violences entre enfants. L’État ne peut plus entretenir un double discours entre la protection de l’enfance et les intérêts économiques de ce secteur : la protection des mineurs est une obligation légale et un devoir moral qui doit primer.

Extrait du rapport annuel 2025 - Chapitre A

Protection des enfants et enjeux liés à l’industrie pornographique
Dans le cadre des discussions relatives à la directive de l’Union européenne relative à la due diligence (Directive sur le devoir de vigilance en matière de durabilité des entreprises (CSDDD)), l’OKAJU s’est rallié, début 2025, aux acteurs de la société civile souhaitant maintenir les exigences déjà ancrées dans la directive– et notamment les droits de l’enfant – face à l’initiative dite « Om-nibus » de la nouvelle Commission européenne. Dans le prolongement de cet engagement en matière de diligence raisonnable et responsable, l’OKAJU a poursuivi ses actions de sensibilisation et de protection des droits de l’enfant dans l’en-vironnement numérique. En février 2025, dans le cadre du Safer Internet Day, l’OKAJU a publié une Recommandation générale relative à l’industrie pornographique pour : 1) protéger les mi-neurs en ligne face à l’industrie de la pornographie, et 2) décrire ses conséquences sur les droits de l’enfant.

Téléchargez le PDF

Nos recommandations

Agir urgemment et de façon coordonnée pour garantir les droits et la protection des enfants, avec un engagement clair de l’État dans la lutte contre l’exploitation sexuelle, la violence et la victimisation des enfants liée à l’industrie pornographique.

appliquer pleinement le DSA, collaborer au niveau européen, affirmer que la pornographie est un problème de santé publique

combiner prévention, éducation, répression et soutien aux victimes ; renforcer le rôle de l’ALIA pour vérifier l’adéquation
des mesures de protection sur les plateformes de partage de vidéos.

obligation légale de contrôle robuste de l’âge, retrait immédiat des contenus illégaux, interdiction d’érotisation d’enfants, de contenus violents/incestueux, et sanctions sévères ; interdiction des stratégies marketing ciblant ou susceptibles de cibler les enfants ; contrôle effectif de la conformité à la future loi nationale.

vérifications d’identité strictes pour tout uploader, contrôle humain systématique des contenus avant leur publication, usage de technologies de détection (hachage, IA), signalement et retrait immédiat, conservation des preuves, coopération renforcée entre plateformes, autorités et ONG.

reconnaître l’industrie pornographique comme secteur à haut risque, examiner toutela chaîne de production (vérification de l’âge et du consentement, document d’identité, conditions de tournage et de distribution) ; contrôle des entreprises implantées au Luxembourg.

améliorer le mécanisme de plainte BEE SECURE Stopline (suivi, anonymat, efficacité) ; prévoir des fonds de dédommagement et un accès à des soutiens psychologiques et juridiques ; développer l’offre dédiée aux personnes souffrant d’addiction à la pornographie.

Annexes et documents

L'OKAJU a publié à ce sujet

L’OKAJU appelle à un cadre plus strict pour limiter l’exposition des mineurs aux contenus préjudiciables.

Consommateurs de CSAM : un danger réel pour les enfants

Les liens entre l’exposition au matériel d’abus sexuel d’enfants (CSAM) et le passage à l’acte sont documentés. Ils soulignent la responsabilité de l’État de renforcer la vigilance et de mieux protéger les enfants des personnes ayant été identifiées comme consommateurs de CSAM, plutôt que de considérer qu’une telle consommation ne laisserait pas préjuger d’un passage à l’acte, ce qui est erroné. L’exposition d’enfants à des personnes identifiées comme consommatrices de CSAM nécessite des mesures préventives, protectrices et la mise en place de plans de sécurité individuels, dès le moment de l’identification, et concernant les enfants des milieux familial, professionnel et social, respectivement associatif. Il faut systématiser l’évaluation du risque et garantir le droit à l’information, au soutien psychologique et à une protection effective pour tous les enfants concernés.

La lutte contre l’exploitation et les abus sexuels à l’encontre des enfants est une priorité incontestable pour l’OKAJU. Elle est au cœur du respect effectif des droits fondamentaux garantis par la Convention des droits de l’enfant. L’essor du matériel d’abus sexuel d’enfants (CSAM), favorisé par le numérique et les réseaux sociaux, représente une menace grave et persistante : chaque image ou vidéo constitue une atteinte directe et renouvelée à la dignité et à l’intégrité des enfants.

Dans ce contexte, l’OKAJU salue la proposition de loi 8643, déposée par Madame la Députée Sam Tanson le 16 octobre 2025, qui vise à garantir le retrait automatique de l’autorité paren-tale et la suspension immédiate des droits de visite et d’hébergement en cas de poursuite ou de condamnation pour des infractions sexuelles ou violentes commises sur des mineurs, même en dehors du cercle familial, renforçant ainsi la protection des enfants contre les abus.

La note suivante vise à éclairer les enjeux spécifiques liés à la production, à la diffusion et à l’impact du CSAM, à rappeler l’obligation de protection pesant sur les institutions et les adultes, et à souligner la nécessité d’une réponse systémique fondée sur l’intérêt supérieur de l’enfant.

Extrait du rapport annuel 2025 - Chapitre A

Consommateurs de matériel d’abus sexuel d’enfants (CSAM) : un danger réel pour les enfants
Dans le contexte actuel des abus sexuels sur enfants et d’une affaire de pédocriminalité ré-cemment médiatisée, il n’y a pas lieu de cautionner un narratif qui laisserait entendre que les consommateurs de CSAM ne devraient pas être perçus comme un réel danger pour les enfants. Ces considérations dangereuses vont à contresens de la littérature scientifique en la matière et il importe dès lors à l’OKAJU d’en faire état, car il est urgent d’assurer la protection des enfants vivant avec ou en contact avec une personne commettant des infractions relatives au CSAM...

Téléchargez le PDF

Nos recommandations

Garantir la systématisation de l’évaluation des risques, pour toute personne en contact avec des enfants et impliquée dans la consommation de CSAM, dans son milieu familial, professionnel et social.

pour améliorer les pratiques du système de protection
de l’enfance.

dotée de personnel formé, de moyens techniques dédiés, et bénéficiant de coopérations renforcées avec Europol, INTERPOL et des homologues.

vérification stricte de l’identité des uploader et participants au contenu, utilisation de technologies de détection avancée, mise en place de protocoles clairs (principe de précaution, plans de sécurité individuels), etc.

en réponse à un risque avéré, documenté et mesurable.

Annexes et documents

Child Sexula Abuse Material - The Facts

Child Sexual Abuse Material (CSAM) are images or videos that show a child engaged in or depicted as being engaged in explicit sexual activity. CSAM has previously been referred to as child pornography. Child pornography implies consent, and a child cannot legally give consent. (English, PDF)

Une traduction en français est disponible dans le PDF du rapport annuel.

Quel moment vous convient le mieux pour être rappelé par l’OKAJU ? Merci d’indiquer votre disponibilité (matin, après-midi, soirée) afin que nous puissions vous contacter au moment le plus adapté.

Ombudsman fir Kanner a Jugendlecher

Maison des Droits de l’homme
65, route d’Arlon
L-1140 Luxembourg

La protection des enfants en environnement numérique

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.