Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Les images d'abus sexuels sur enfants générées par l'IA, y compris les deepfakes, ont augmenté à l'échelle mondiale, affectant 1,2 million d'enfants, incitant l'UNICEF à exhorter à des lois plus strictes et à des garanties technologiques.
Une augmentation des images sexualisées d'enfants générées par l'IA, y compris les infarctus créés par la « nudification », a alarmé l'UNICEF, qui signale au moins 1,2 million d'enfants touchés dans le monde au cours de l'année écoulée.
L'organisation met en garde contre ce contenu, même synthétique, qui constitue un matériel de violence sexuelle envers les enfants et cause de réels préjudices psychologiques, en exhortant les gouvernements à élargir les lois pour criminaliser le CSAM produit par l'IA et en invitant les développeurs de technologies à mettre en œuvre des mesures de sécurité par conception.
Malgré les interdictions temporaires sur les plateformes comme X après que son chatbot AI Grok a permis de tels contenus, les utilisateurs contournaient les restrictions, soulignant la nécessité de réglementations ciblées.
La nouvelle loi sur la sécurité en ligne (relief et responsabilité) de Singapour habilite une commission à prendre des mesures de retrait et à soutenir les poursuites civiles, tandis que les experts soulignent que la réduction de la tolérance sociale est essentielle pour protéger les victimes.
AI-generated child sexual abuse images, including deepfakes, have surged globally, affecting 1.2 million children, prompting UNICEF to urge stronger laws and tech safeguards.