Apple Détection CSAM : la sécurité conversationnelle des messages arrive au Royaume-Uni
Apple A annoncé qu’il commencera à analyser toutes les photos téléchargées sur iCloud à la recherche de matériel potentiel d’abus sexuel d’enfants (CSAM).Il a fait l’objet d’un examen minutieux et a provoqué une certaine indignation, notamment de la part de Apple employé. Voici ce que vous devez savoir sur la nouvelle technologie avant son lancement plus tard cette année.
Apple et scan CSAM : dernières actualités
21 avril 2022 : Cette Conversation Safety for Messages arrive au Royaume-Uni., bien qu’aucun calendrier n’ait été annoncé.
15 décembre 2021 : Apple La référence au système CSAM a été supprimée de son site Web. Apple Dire Fonctionnalité CSAM toujours « retardée » Et ça n’a pas annulé.
14 décembre 2021 : Apple annoncé Fonctionnalités de sécurité des conversations pour les messages dans la mise à jour officielle iOS 15.2La fonctionnalité CSAM n’est pas publiée.
10 novembre 2021 : Cette iOS 15.2 beta 2 a des fonctionnalités de sécurité de conversation de message moins controverséesIl s’appuie sur une analyse d’image sur l’appareil, mais il ne fait pas correspondre l’image à une base de données connue et il ne sera activé que si le compte parent l’active. Ceci est différent du CSAM. Obtenez des détails.
3 septembre 2021 : Apple a annoncé que Publication retardée de ses capacités CSAM Sur iOS 15, iPadOS 15, watchOS 8 et macOS 12 Monterey jusqu’à plus tard cette année. Ces fonctionnalités feront partie d’une mise à jour du système d’exploitation.
24 août 2021 : Apple Confirmé avec 9to5Mac qu’il a Analyser le courrier électronique iCloud de CSAM Utilisez des techniques d’appariement d’images.
19 août 2021 : Près de 100 groupes politiques et de défense des droits publient des lettres ouvertes envie Apple plans abandonnés pour mettre en œuvre le système dans iOS 15.
18 août 2021 : Après qu’il a été rapporté que Système de hachage neuronal La technologie CSAM d’Apple est basée sur l’usurpation d’identité, Apple Dit que le système « fonctionne comme décrit ».
13 août 2021 : Dans une interview avec Joanna Stern le journal Wall Street, Craig Federighi, vice-président senior du génie logiciel, a déclaré que la nouvelle technologie d’Apple était « largement mal comprise ».il Plus d’explications sur le fonctionnement du systèmecomme décrit ci-dessous. Apple Un document a également été publié avec plus de détails sur les fonctionnalités de sécurité dans les messages et les capacités de détection de CSAM.
Notions de base
Quelles sont les technologies Apple Lancement?
Apple De nouvelles fonctionnalités anti-CSAM seront déployées dans trois domaines : Messages, Photos iCloud, Siri et Recherche.Voici comment chacun d’entre eux sera mis en œuvre, selon Apple.
message: L’application Messages utilisera l’apprentissage automatique sur l’appareil pour avertir les enfants et les parents du contenu sensible.
Photos iCloud : Avant de stocker une image dans iCloud Photos, un processus de correspondance sur l’appareil est effectué sur l’image par rapport à un hachage CSAM connu.
Siri et Recherche : Siri et Search fourniront des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l’aide dans des situations dangereuses.
Quand le système arrivera-t-il ?
Apple Annoncé début septembre, le système ne sera pas disponible dans les versions d’automne d’iOS 15, iPadOS 15, watchOS 8 et macOS 12 Monterey. Ces fonctionnalités seront disponibles dans une mise à jour du système d’exploitation plus tard cette année.
Le nouvel outil de détection de CSAM sera lancé avec le nouveau système d’exploitation plus tard cette année.
Apple
Pourquoi le système est-il sorti maintenant ?
Craig Federighi a déclaré à Joanna Stern du Wall Street Journal qu’il était sorti sur iOS 15 parce que « nous l’avons compris ».
Analyse CSAM
La technologie de numérisation signifie-t-elle Apple Pouvez-vous voir ma photo?
pas assez.C’est ça Apple Explication de la technologie : au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournie par le National Center for Missing and Exploited Children (NCMEC) et d’autres organisations de sécurité des enfants. Apple Convertissez ensuite cette base de données en un ensemble de hachages illisibles et stockez-la en toute sécurité sur l’appareil de l’utilisateur.comme Apple Explique que le système recherche strictement des images « spécifiques et connues ».Une Apple Les employés ne verront que les photos marquées comme ayant un hachage, et même alors seulement lorsqu’un seuil est atteint.
mais Apple Numériser des photos sur mon appareil, n’est-ce pas ?
Oui et non. Le système est multiforme. d’un côté, Apple Indique que le système n’est pas disponible pour les utilisateurs qui ont désactivé Photos iCloud, mais il n’est pas clair si la numérisation est effectuée uniquement sur les images téléchargées sur Photos iCloud, ou si toutes les images sont numérisées et comparées, mais résultat Les numérisations (hash match ou non) ne sont envoyées avec les photos que lorsqu’elles sont téléchargées sur iCloud Photos. « L’autre moitié de l’algorithme est effectuée dans le cloud », explique Federighi, il a donc besoin d’iCloud pour fonctionner pleinement lorsque les photos sont numérisées sur l’appareil. Federighi a souligné que le système « fait en fait partie du pipeline qui stocke les images dans iCloud ».
Que faire si le système détecte une image CSAM ?
Étant donné que le système ne fonctionne qu’avec les hachages d’images CSAM fournis par NCMEC, il ne signalera que les photos avec des CSAM connus dans iCloud Photos. S’il détecte le CSAM au-dessus d’un certain seuil – Federighi dit que c’est « environ 30 », Apple Un examen manuel sera ensuite effectué avant qu’une décision ne soit prise de signaler ou non au NCMEC. Apple a déclaré qu’il n’y avait pas de signalement automatique aux forces de l’ordre, mais qu’il signalerait tout cas aux autorités compétentes.
Le système confondra-t-il une vraie photo de mon enfant avec un CSAM ?
C’est extrêmement improbable. Étant donné que le système ne numérise que les images connues, Apple Indique que la probabilité que le système signale à tort un compte donné est inférieure à un sur mille milliards par an. Si cela s’était produit, un examen humain l’aurait détecté avant qu’il ne soit transmis aux autorités. De plus, il existe un processus d’appel pour toute personne qui pense que son compte a été signalé et désactivé à tort.
Cependant, un rapport en août a semblé prouver que le système était faux.L’utilisateur de GitHub, AsuharietYgva, aurait décrit les détails du système NeuralHash Apple Alors que l’utilisateur dxoigmn semble prétendre avoir trompé le système avec deux images différentes qui créent le même hachage. comme réponse, Apple A défendu le système, disant à Motherboard qu’il utilisait une « version générique, pas la version finale pour la détection CSAM d’iCloud Photos ». Dans un document analysant les menaces de sécurité, Apple Dites : « L’algorithme NeuralHash [… is] Inclus dans le code du système d’exploitation signé [and] Les chercheurs en sécurité peuvent vérifier qu’il se comporte comme décrit. «
Puis-je désactiver la numérisation iCloud Photo CSAM ?
Non, mais vous pouvez désactiver iCloud Photos pour empêcher la fonctionnalité de fonctionner correctement.Il n’est pas clair si cela désactivera complètement la numérisation des photos sur les appareils Apple, mais les résultats de ces analyses (hachages correspondants ou non) ne sont déterminés que par Apple Lorsque l’image est téléchargée sur iCloud Photos.
Apple
message
Oui Apple Numériser également toutes mes photos dans Messages ?
pas assez. Les mesures de sécurité dans les informations Apple sont conçues pour protéger les enfants et ne s’appliquent qu’aux comptes d’enfants configurés en tant que familles dans iCloud.
Alors, comment ça marche?
La sécurité des communications dans Messages est une technologie complètement différente de celle de CSAM qui analyse les photos iCloud.Au lieu d’utiliser des hachages d’images pour comparer avec des images connues d’abus sexuels d’enfants, il utilise des algorithmes d’apprentissage automatique pour analyser les images que les messages envoient ou reçoivent n’importe quel contenu pornographique.l’image est non partager avec Apple ou toute autre institution, y compris le NCMEC. Il s’agit d’un système que les parents peuvent activer sur les comptes de leurs enfants pour les avertir (ainsi que leurs enfants) lorsqu’ils sont sur le point de recevoir ou d’envoyer du matériel pornographique.
Les parents peuvent-ils se retirer ?
Les parents doivent activer spécifiquement la nouvelle fonctionnalité de numérisation d’images Messages sur le compte qu’ils ont configuré pour leur enfant, et elle peut être désactivée à tout moment.
iMessage aura-t-il toujours un cryptage de bout en bout ?
Oui. Apple signifie que la sécurité des communications dans le message n’altère pas les caractéristiques de confidentialité contenues dans le message, et Apple La communication n’est jamais accessible.De plus, aucune communication, évaluation d’image, intervention ou avis n’est disponible pour Apple.
Que se passe-t-il si une image pornographique est trouvée ?
Lorsqu’un parent active cette fonctionnalité pour le compte de son enfant et que l’enfant envoie ou reçoit des images sexuellement explicites, les photos seront floues et l’enfant sera averti, fourni avec des ressources et assuré s’il ne veut pas voir ou envoyer les photos . Pour les comptes avec des enfants de 12 ans et moins, les parents peuvent configurer une notification parentale qui sera envoyée si l’enfant confirme et envoie ou visualise une image qui a été jugée explicite.
Siri et Recherche
Quoi de neuf avec Siri et Search ?
Apple Siri et Search sont améliorés pour aider les gens à trouver des ressources pour signaler le CSAM, et les conseils de Siri et Search sont étendus en fournissant plus de ressources pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l’aide dans des situations dangereuses. Apple Siri et Search sont également mis à jour pour intervenir lorsque les utilisateurs effectuent des requêtes liées au CSAM. Apple Les interventions de représentation consisteront à expliquer aux utilisateurs que l’intérêt pour le sujet est nuisible et problématique, et à fournir des ressources aux partenaires pour obtenir de l’aide pour résoudre le problème.
contestation
Alors pourquoi les gens s’énervent-ils ?
Alors que la plupart s’accordent à dire que le système d’Apple est limité dans sa portée, les experts, les régulateurs et les défenseurs de la vie privée s’inquiètent Potentiel abuser de. Par exemple, Edward Snowden, qui a révélé le programme de surveillance mondiale de la NSA et a vécu en exil, a tweeté : « Peu importe à quel point les intentions sont bonnes, Apple La surveillance de masse est déployée dans le monde. Ne vous méprenez pas : s’ils peuvent scanner la pornographie juvénile aujourd’hui, ils peuvent scanner n’importe quoi demain. De plus, l’Electronic Frontier Foundation a critiqué le système et Matthew Green, professeur de cryptographie à l’Université Johns Hopkins, a expliqué le potentiel d’abus du système. Apple utilise.
Beaucoup ont souligné que ces techniques de numérisation sont des outils de surveillance de masse efficaces (quelque peu limités). Pas très différent des outils déployés par les régimes autoritaires – juste tourné vers un objectif différent.
– Matthieu Green (@matthew_d_green) 5 août 2021
les gens sont aussi inquiets Apple Sacrifie la confidentialité intégrée à l’iPhone en scannant l’image CSAM avec l’appareil. Alors que de nombreux autres services analysent les images CSAM, le système d’Apple est unique en ce sens qu’il utilise des correspondances sur l’appareil plutôt que des images téléchargées sur le cloud.
Le système CSAM peut-il être utilisé pour numériser d’autres types d’images ?
pas maintenant. Apple Indique que le système est uniquement utilisé pour numériser des images CSAM. Cependant, Apple Boîte théoriquement Augmenter la liste de hachage pour trouver des images connues liées à d’autres choses, telles que le contenu LGBTQ +, mais a répété à plusieurs reprises que le système était uniquement destiné au CSAM.
Oui Apple Analyser d’autres applications ou services ?
Apple Il a été récemment confirmé qu’il a…