Apple fait face à des poursuites de survivants de maltraitance d'enfants pour des réclamations qu'il a hébergé et ignoré des images de maltraitance sur iCloud.

Apple fait face à une action collective de milliers de survivants de violences sexuelles, accusant la compagnie d'héberger sciemment et de ne pas supprimer les images et vidéos de violences sur iCloud. Les demandeurs affirment qu'Apple avait la technologie pour détecter ce contenu, mais ont mis fin à son programme de « détection CSAM » en 2021. Le procès vise à obtenir des mesures pour assurer la sécurité des enfants, alléguant que l'inaction d'Apple a porté préjudice aux victimes.

Il y a 4 mois
31 Articles

Pour aller plus loin