Apple Déploiement retardé de la numérisation de photos CSAM
Apple La société a décidé de retarder le déploiement de sa fonctionnalité logicielle de protection de l’enfance après que le plan ait été largement critiqué, a rapporté The Verge.
Politique de protection de l’enfance annoncée le mois dernier Apple, et comprend une méthode pour lutter contre la diffusion de matériel pédopornographique (CSAM). Pour ce faire, il utilise un algorithme pour faire correspondre le contenu de l’image sur le téléphone de l’utilisateur avec le matériel CSAM précédemment connu.
L’initiative a été largement critiquée. Entre autres choses, certains groupes de défense des droits de l’homme dans le monde ont souligné que les pratiques de « protection de l’enfance », bien que bien intentionnées, peuvent violer la vie privée des utilisateurs et devenir des outils de surveillance. Le PDG d’Epic Games – qui n’est peut-être pas un commentateur totalement impartial – le décrit comme un logiciel espion gouvernemental.
Apple Il a d’abord défendu son plan, affirmant qu’il était largement mal compris, et a eu du mal à expliquer les complexités de l’endroit, de la manière et de qui a scanné les images. (Craig Federighi nie que l’entreprise ait l’intention d’espionner les téléphones des utilisateurs, insistant sur le fait que les analyses ne sont effectuées que lorsque les images sont téléchargées sur iCloud Photo Library – mais admet que la phase initiale de l’analyse doit être sur le téléphone.) Maintenant, cependant, il a accepté de retarder le déploiement de la fonctionnalité tout en travaillant à améliorer sa mise en œuvre.
Les politiques devaient être déployées plus tard cette année, mais seront maintenant retardées. Apple Aucun nouveau calendrier n’a été annoncé, si ce n’est qu’il « aura besoin de plus de temps » pour répondre aux critiques et lancer le projet.
Dans une déclaration à The Verge, la société a déclaré: « Le mois dernier, nous avons annoncé des plans pour des fonctionnalités conçues pour aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériel d’abus sexuel d’enfants. »
« Sur la base des commentaires des clients, des groupes de défense, des chercheurs et autres, nous avons décidé de passer plus de temps à recueillir des commentaires et à apporter des améliorations dans les mois à venir avant de publier ces fonctionnalités vitales pour la sécurité des enfants. »
Mais tout le monde n’est pas satisfait de la concession.L’Electronic Frontier Foundation (EFF), bien que satisfaite du retard, a exhorté Apple Abandonnez complètement le plan.
« EFF est ravi Apple Les inquiétudes des clients, des chercheurs, des groupes des libertés civiles, des militants des droits de l’homme, des personnes LGBTQ, des représentants de la jeunesse et d’autres groupes concernant les dangers posés par leurs outils de numérisation de téléphones portables sont désormais écoutés », a écrit le groupe (via Mac Worship).
«Mais l’entreprise doit aller plus loin que simplement écouter et abandonner ses plans pour mettre entièrement une porte dérobée dans son cryptage. Apple Annoncé il y a un mois et visant à aider à protéger les enfants, il créera une infrastructure qui sera très facilement redirigée vers une surveillance et un examen plus stricts. «
Cet article a été initialement publié sur Macworld Suède. Traduction et reportage supplémentaire par David Price.