Apple « réduit » désormais l’accent mis sur la protection de la vie privée

Au fil des ans, l’accent mis par Apple sur la protection de la vie privée des utilisateurs est très élevé. La protection de la vie privée des utilisateurs par Apple est évidente pour chaque utilisateur Apple. En fait, à un moment donné, la confidentialité devient parfois une menace pour les utilisateurs. La protection de la vie privée d’Apple est si forte qu’en 2015, la société a refusé l’accès du FBI au téléphone mobile Apple d’un terroriste mort.

En septembre 2020, Apple a même publié une publicité sur le partage, pour présenter aux consommateurs la protection de la vie privée de l’iPhone. La vidéo décrivait des personnes partageant de manière embarrassante des «informations personnelles» avec des étrangers. Ces informations incluent les numéros de carte de crédit, les informations de connexion et l’historique de navigation sur le Web.

Apple a déclaré : « Certaines choses ne devraient pas être partagées, c’est pourquoi l’iPhone est conçu pour vous aider à contrôler les informations et à protéger la confidentialité ». L’entreprise a estimé à plusieurs reprises que la confidentialité des utilisateurs est un « droit de l’homme fondamental » et les « valeurs fondamentales » de l’entreprise. Au salon CES 2019, l’entreprise a même contracté un immense espace publicitaire pour un hôtel. La publicité dit « Ce qui se passe sur votre iPhone reste sur votre iPhone ». Cette énorme publicité exprime l’importance d’Apple pour la confidentialité des utilisateurs.

En toute honnêteté, de nombreux utilisateurs d’Android admirent le niveau de protection de la vie privée d’Apple. Cependant, la grande question est « Apple continuera-t-il avec ce niveau de protection de la vie privée ? » La réponse est non.

Apple analysera le contenu multimédia à la recherche de contenu pédopornographique

Il y a quelques jours à peine, Apple a annoncé une nouvelle technologie qui brisait le soi-disant accent mis sur la confidentialité des utilisateurs sur lequel elle insistait. La société a récemment publié un nouvel outil de bout en bout pour analyser et détecter les « contenus pédopornographiques ». Qu’est-ce que la numérisation de bout en bout ? Cela signifie que la numérisation sera effectuée sur l’appareil de l’utilisateur. Afin de compléter la détection des « contenus pédopornographiques », iOS et iPadOS disposeront d’une nouvelle technologie qui permettra à l’entreprise de détecter la valeur de hachage des images/vidéos sur ses appareils. Que vous envoyiez ou receviez, Apple sera en mesure de détecter les « contenus pédopornographiques ».

Apple comparera ensuite la valeur de hachage extraite avec la base de données de hachage des images connues d’abus sexuels sur des enfants fournie par le National Center for Missing and Exploited Children (NCMEC) et d’autres organisations de sécurité des enfants.

Afin de vérifier si certaines photos ou images appartiennent à des contenus pédopornographiques, Apple a déclaré que cette base de données sera convertie en un ensemble de hachages illisibles, stockés en toute sécurité sur l’appareil de l’utilisateur. Ainsi, lorsque les utilisateurs reçoivent ou envoient des photos sur iMessage, le système achèvera également le suivi des photos.

Si le système considère cette photo comme une photo explicite, elle sera floue et iMessage avertira l’enfant et reconfirmera s’il souhaite continuer à naviguer ou envoyer la photo explicite. De plus, si l’enfant prévisualise ou envoie à nouveau des photos explicites, l’APP en informera automatiquement les parents.

Apple numérisera également les images iCloud

Le constructeur américain utilisera également un algorithme similaire pour détecter les photos envoyées par les utilisateurs vers iCloud. Avant de télécharger sur le serveur, il effectuera une série de travaux de cryptage sur les fichiers. Si, après avoir téléchargé les photos sur iCloud et terminé la comparaison de la valeur de hachage, Apple pense que les photos contiennent du contenu d’abus sexuels sur des enfants, les serveurs d’Apple déchiffreront les photos et les vérifieront manuellement.

Certains experts estiment que l’intention initiale d’Apple de proposer le programme CSAM est bonne. Ils croient également que la répression de ces actes illégaux est absolument juste. Cependant, cet ensemble de solutions contourne la solution de cryptage de bout en bout conçue à l’origine pour améliorer la confidentialité des utilisateurs. Il s’agit évidemment d’une porte dérobée qui pourrait présenter de graves risques pour la sécurité et la confidentialité.

Quitter la version mobile