La fonction de sécurité pour enfants Photo Scan d’iOS 15.2 n’a pas encore numérisé vos photos
De retour en août, Apple Annonce de deux nouvelles fonctionnalités conçues pour protéger les utilisateurs d’iPhone contre les prédateurs d’enfants et réduire l’utilisation de la technologie et des services d’Apple pour diffuser du matériel d’abus sexuels sur des enfants (CSAM) et protéger les mineurs contre les avances sexuelles non désirées Violation de contenu.
Deux fonctionnalités ont été annoncées : l’analyse CSAM des photos iCloud et le contrôle parental pour surveiller les messages à la recherche de pornographie. La fonction d’analyse CSAM a suscité tellement de controverses parmi les défenseurs de la vie privée que Apple En fin de compte, retarder le tout jusqu’à plus tard cette année tout en travaillant à l’amélioration de leur solution pour mieux protéger la vie privée des utilisateurs.
La dernière version bêta d’iOS 15.2 inclut la deuxième fonctionnalité, mais non Controversé d’abord. La fonction CSAM Photo Scan utilisera une analyse sur l’appareil des images de votre bibliothèque de photos que vous téléchargez sur iCloud, en vérifiant une correspondance avec une base de données d’images connues d’abus sexuels d’enfants.Les résultats de l’analyse sont confidentiels, même Applejusqu’à ce qu’un certain seuil soit dépassé, auquel cas le National Center for Missing and Exploited Children (NCMEC) sera contacté.
Apple Pensez que les correspondances sur l’appareil, avec uniquement des hachages sécurisés transmis aux serveurs iCloud, sont en fait plus privées et sécurisées que le traitement dans le cloud que la plupart des concurrents font pour ce type de matériel. Mais les défenseurs de la vie privée avertissent que tout système qui scanne les photos sur votre appareil pourrait préparer le terrain pour que ce système soit abusé par des acteurs malveillants ou des agents de l’État.
La fonction Conversation Safety d’Apple signalera les photos potentiellement « sensibles » dans les messages.
Apple
D’autre part, la nouveauté d’iOS 15.2 beta 2 est la fonctionnalité de sécurité des conversations la moins controversée dans les messages. Il s’appuie également sur l’analyse d’images sur l’appareil, mais il ne fait pas correspondre les images avec une base de données connue et il ne sera activé que si le compte parent l’active.
Une fois que le compte parent l’a activé pour le compte enfant, toutes les images envoyées ou reçues dans les messages seront analysées pour la nudité et le contenu sexuel. Si une telle image est reçue, elle sera floue et l’enfant sera averti par une fenêtre contextuelle qui affiche la ressource à manipuler. L’enfant peut alors voir ou non la photo.
Il était initialement prévu que les parents d’enfants de moins de 13 ans seraient automatiquement avertis s’ils voyaient une telle image.Les critiques ont souligné que cela pourrait mettre certains enfants en danger, alors Apple Les notifications automatiques ont été supprimées et à leur place, les enfants de tout âge peuvent envoyer un message à un adulte de confiance s’ils le souhaitent, au lieu de décider de voir une image.
Si le compte parent n’a pas explicitement activé cette fonctionnalité, cette fonctionnalité ne numérisera aucune image et ne lui enverra aucune information. Apple ou tout autre tiers.
Mais un scan CSAM est en cours.si Apple S’en tenant à son calendrier, il réintroduira la numérisation de photos dans une prochaine version bêta (probablement 15.3), et la controverse recommencera.Mais pour l’instant, la fonctionnalité Conversation Safety d’iOS 15.2 ne devrait pas effrayer les parents et peut aider les enfants à prendre de meilleures décisions, dont aucune n’a besoin d’être Apple scanner leurs photos.