La base de l’iPhone présente une petite fissure. Quelle sera sa taille ?
L’annonce surprise d’Apple la semaine dernière selon laquelle il ajoutait une multitude de fonctionnalités à iOS impliquant du matériel d’abus sexuel d’enfants (CSAM) a provoqué une réaction tout à fait prévisible. Ou, plus précisément, une réaction.Ceux qui font respecter le spectre applaudissent Apple pour son travail, et pour ceux chargés des libertés civiles Apple Transformez votre iPhone en appareil de surveillance.
Il n’est pas surprenant que la déclaration d’Apple fasse l’objet d’un examen minutieux.S’il y a quelque chose de surprenant dans toute l’histoire, c’est Apple Il ne semble pas avoir anticipé toute la résistance que son annonce a suscitée. L’entreprise a dû publier un document FAQ en réponse. Si Q est FA après votre annonce, vous avez probablement foiré votre annonce.
une telle annonce la peine examen. Le problème pour ceux qui cherchent à faire tomber le buzz sur cette question est qu’elle est très complexe et qu’il n’y a pas de réponses faciles.Cela ne signifie pas que l’approche d’Apple est fondamentalement bonne ou mauvaise, mais cela signifie Apple Certains choix sont faits qui méritent d’être explorés et débattus.
Le compromis d’Apple
Je ne sais pas trop pourquoi Apple Choisissez ce moment pour lancer cette technologie. Le responsable de la confidentialité d’Apple a suggéré que c’était parce que c’était prêt, mais c’est un peu louche –Apple Il doit choisir les technologies à prioriser et il priorise cette technologie. Apple Peut anticiper son obligation légale de scanner CSAM.est peut-être Apple Des efforts sont déployés pour ajouter des fonctionnalités de sécurité iCloud qui nécessitent cette approche.Aussi une possibilité Apple Je viens de décider que davantage doit être fait pour empêcher la distribution de CSAM.
Le plus grand indice sur la motivation d’Apple est la manière très spécifique dont cette fonctionnalité est implémentée. Je vous épargne la longue explication, mais en bref : Apple image avec hacher Images illégales compilées par le National Center for Missing and Exploited Children. Il recherche de nouvelles images qui seront synchronisées avec iCloud Photos.il ne numérise pas toutes les photos sur votre appareil, et Apple Ne scanne pas toutes les photos qu’il stocke sur ses serveurs iCloud.
bref, Apple Un détecteur CSAM a été construit qui se trouve à la porte entre votre appareil et iCloud. Si vous ne synchronisez pas vos photos avec iCloud, le détecteur ne fonctionnera jamais.
La vérification CSAM se produit sur les images téléchargées sur iCloud, pas sur la photothèque de l’iPhone.
IDG
Tout cela m’amène à croire qu’il existe une autre chaussure qui peut faire Apple faire le service cloud Suite Sûr et privé.Si ce système de balayage permet essentiellement Apple Donner aux utilisateurs plus de confidentialité sans renoncer à leur obligation morale d’empêcher la propagation du CSAM est formidable.Mais il n’y a aucun moyen de savoir jusqu’à ce que Apple faire une telle annonce. Dans le même temps, tous ces gains potentiels de confidentialité sont théoriques.
Où sont les espions ?
Dernières années, Apple Il a clairement indiqué qu’il pensait que l’analyse des données des utilisateurs se produisant sur nos appareils était fondamentalement plus privée que l’analyse exécutée dans le cloud. Dans le cloud, vos données doivent être décryptées pour l’analyse, presque n’importe quel type d’analyse. Tout employé disposant du niveau d’accès approprié peut également parcourir vos données. Mais si toute cette analyse se produit sur votre appareil – c’est pourquoi les puces modernes d’Apple ont un puissant composant de moteur neuronal pour faire le travail – les données ne quittent jamais la maison.
L’approche d’Apple ici remet tout cela en question, et je soupçonne que c’est la source de certaines des plus grandes critiques de l’annonce. Apple Des décisions qui, selon lui, amélioreront la confidentialité sont prises.Personne n’est là Apple Votre photo est en cours de numérisation, mais personne ne l’est Apple Les images CSAM potentielles peuvent même être visualisées jusqu’à ce qu’un seuil soit dépassé, ce qui réduit le risque de faux positifs. Seul votre appareil peut voir vos données. Cela tombe bien car nos appareils sont sacrés, ils nous appartiennent.
Sauf que… un algorithme s’exécutera désormais sur notre appareil conçu pour surveiller nos données et s’il trouve quelque chose qu’il n’aime pas, il se connectera à Internet et rapportera les données AppleBien qu’aujourd’hui, il soit spécialement conçu pour CSAM et puisse être désactivé en désactivant la synchronisation de la bibliothèque de photos iCloud, il semble toujours qu’il est hors limites. Non seulement nos appareils fonctionnent pour nous, mais ils nous surveillent également pour détecter des signes d’activité illégale et alertent les autorités.
risques de Apple C’est énorme ici. Cela prend beaucoup de temps pour assimiler les opérations sur l’appareil à la confidentialité, et a le potentiel d’empoisonner tout ce travail avec la perception que nos téléphones ne sont plus nos châteaux.
À bien des égards, il s’agit d’un autre aspect du plus grand défi auquel l’industrie technologique est confrontée à cette époque. La technologie est devenue si importante et puissante que chaque nouveau développement a un impact énorme sur la société dans son ensemble.
Avec son scanner CSAM sur l’appareil, Apple Un outil soigneusement calibré a été conçu pour protéger la vie privée des utilisateurs.Construire cet outil s’il est activé Apple En fin de compte, offrant un cryptage de données iCloud plus large et peut-être même une augmentation nette de la confidentialité des utilisateurs.
Mais les outils ne sont ni bons ni mauvais. Apple Cet outil est conçu pour un bon objectif, mais chaque fois que nous construisons un nouvel outil, nous devons imaginer comment il pourrait être abusé. Apple Il semble que cette fonctionnalité ait été conçue très soigneusement pour la rendre plus difficile à subvertir, mais ce n’est pas toujours suffisant.
Imaginez un cas d’un organisme d’application de la loi étranger Apple Et a déclaré qu’il avait compilé une base de données d’images illégales et voulait l’ajouter aux scanners d’Apple. Apple Il a été franc qu’il refusera toutes ces demandes.C’est encourageant, je n’ai aucun doute Apple Si la plupart des pays essaient de poursuivre cette stratégie, ils abandonneront.
Mais peut-il dire non à la Chine ? Peut-il dire non au gouvernement américain si l’image en question implique des membres d’une organisation terroriste ?Dans un an ou deux, une telle politique deviendra-t-elle si courante que lorsque le gouvernement la demandera Apple Ou son équivalent commence à rechercher du matériel illégal ou subversif, est-ce que quelqu’un le remarquera ? La première mise en œuvre de cette technologie est d’arrêter le CSAM et personne ne s’opposera à essayer d’arrêter l’exploitation des enfants. Mais y aura-t-il une deuxième implémentation ? un tiers?
Sera Apple La Chine peut-elle dire non au scanner d’Apple s’il demande d’ajouter une image ? Franck/Unsplash
Apple Tous les efforts ont été faits pour trouver un compromis entre la violation de la vie privée des utilisateurs et l’arrêt de la distribution de CSAM. Une manière bien particulière d’implémenter cette fonctionnalité le prouve. (Quiconque essaie de vous vendre comment Apple J’essaie juste de t’espionner, et franchement, quelqu’un qui ne vaut pas la peine d’être écouté. )
mais seulement parce que Apple Après avoir fait preuve de diligence raisonnable et fait des choix prudents pour mettre en œuvre un outil pour arrêter la propagation de matériel odieux, cela ne signifie pas qu’il est tiré d’affaire. Il a franchi la ligne en faisant exécuter à nos téléphones un algorithme qui ne nous sert pas mais nous surveille. Franchir la ligne est peut-être inévitable. Peut-être inévitablement, la technologie nous amène dans un monde où tout ce que nous disons, faisons et voyons est scanné par des algorithmes d’apprentissage automatique qui seront aussi bénins ou malveillants que la société qui les met en œuvre.
Même si le cœur d’Apple est au bon endroit, ma confiance dans le fait que sa philosophie résistera aux aspirations futures des forces de l’ordre et des gouvernements autoritaires n’est pas aussi élevée que je le souhaiterais.Nous pouvons tous nous opposer au CSAM et apprécier la manière intelligente Apple Essayer d’équilibrer ces deux besoins contradictoires tout en s’inquiétant de ce que cela signifie pour l’avenir.