Un analyste dit qu’il n’y aura pas d’identification de visage sous l’écran avant l’iPhone 15
Le moulin à rumeurs continue d’être obsédé par le changement Apple Les différents capteurs frontaux de l’iPhone devraient être réorganisés pour éliminer l’encoche.
Il existe différentes manières Apple Ces changements peuvent être adaptés (ce que nous avons exploré dans d’autres articles, tels que l’apparence de l’iPhone et justifie un cran sans lui). Mais l’analyste américain Ross Young s’est concentré sur une approche en particulier, prédisant que la caméra infrarouge Face ID sera placée sous l’écran des modèles d’iPhone de l’année prochaine.
Avant de vous exciter, gardez à l’esprit que Young ne pense pas que cela se produira cette année, mais prédit 2023 ou même 2024 pour l’IR à l’écran.
Pas cette année. Maintenant, c’est plutôt 2023 ou 2024 pour l’IR sous le panneau.
– Ross Young (@DSCCRoss) 12 janvier 2022
Le résultat pourrait être un iPhone 15 (ou un iPhone 16, si les timings les plus pessimistes sont précis) avec une véritable conception tout écran, sans encoche, pilule, perforation ou tout autre type d’obstruction.
Bien que la plupart des clients finissent par être heureux de voir l’encoche à l’arrière, il est possible Apple La conception de l’encoche continuera d’être disponible sur certains modèles sortis en 2023. En limitant la conception tout écran aux modèles iPhone 15 Pro et iPhone 15 Pro Max, la société augmentera l’intérêt pour ses modèles les plus chers.
Young a été un analyste solide dans le passé, avec une précision stupéfiante de 100 % sur AppleTrack (certes à partir d’un petit échantillon).Mais étant donné que le lancement n’est pas prévu avant septembre 2023 ou 2024, il reste beaucoup de temps Apple Changez d’avis, pensez au lancement de l’iPhone 14 avant, bien sûr.
Si vous ne voulez pas attendre l’arrivée de tous ces appareils, faites une bonne affaire dans la gamme actuelle avec notre tour d’horizon des meilleures offres iPhone.
Cet article a été initialement publié sur Macworld Suède. Traduction (à l’aide de DeepL) et rapports supplémentaires par David Price.