Apple redouble d’efforts pour assurer la sécurité et la confidentialité de ses utilisateurs avec les récentes mises à jour d’iOS. L’entreprise souhaite également prendre des mesures supplémentaires pour assurer la protection des enfants qui utilisent leurs smartphones. En outre, la société souhaite que les parents soient convaincus que les appareils iOS sont sûrs pour les enfants. Avec la prochaine version d’iOS 15.2, la société fera un pas audacieux dans cette direction. Les iPhones seront capables de détecter si un utilisateur d’iPhone ou d’iPad reçoit ou envoie un texte contenant des photos sexuellement explicites. Cela permettra à la société de protéger les enfants des prédateurs sexuels.
Apple a annoncé en août dernier qu’elle mettrait à jour l’application Messages de l’iPhone afin qu’elle puisse détecter les photos sexuellement explicites. Ce mardi, la fonctionnalité a été mise en ligne dans la version bêta 2 de iOS 15.2 pour développeurs. Lorsque la fonctionnalité sera pleinement disponible, un enfant qui reçoit une photo de nu dans l’application Messages sur un iPhone ou un iPad verra une image floue. Si l’enfant essaie de la visualiser, il recevra une alerte qui lui demandera « Es-tu sûr ? ».

Le message d’avertissement permet à un enfant de comprendre. Il indique « Les photos et vidéos sensibles montrent les parties intimes du corps que l’on couvre avec un maillot de bain ». Si l’enfant visualise l’image après cela, ses parents recevront une notification. Il est intéressant de noter que le même comportement se produit si un enfant tente d’envoyer des photos sexuellement explicites. L’enfant sera averti avant l’envoi de la photo. Les parents recevront une alerte si l’enfant choisit de l’envoyer quand même.
La fonctionnalité sera désactivée par défaut. Toutefois, un parent ou un tuteur pourra l’activer. Il suffit que les appareils fassent partie d’un plan de partage familial.
Apple numérisera les photos stockées sur les iPhones et les comptes iCloud à la recherche de maltraitance d’enfants
Il est intéressant de noter qu’un rapport a été publié il y a quelques jours, selon lequel Apple envisage de scanner les photos stockées sur les iPhones et les comptes iCloud des particuliers. L’objectif est de rechercher des images suggérant des abus sur les enfants. Cette initiative facilitera les enquêtes policières et suscitera la controverse quant à l’accès des agences gouvernementales aux données des utilisateurs. Il convient de noter que la nouvelle politique visant à protéger les enfants des contenus sexuellement explicites ne semble pas faire partie de cette nouvelle politique.
Nous sommes particulièrement curieux de voir comment cette situation va dégénérer. Quoi qu’il en soit, en ce qui concerne l’objectif de « protection des enfants », il est bon de voir une grande entreprise faire des efforts pour rendre ses logiciels plus sûrs…



