Plus tôt ce mois-ci, Apple a annoncé son intention de déployer un logiciel sur les appareils des utilisateurs pour rechercher des images de scènes de maltraitance d’enfants. Cette initiative a été fortement critiquée, sous la pression de laquelle Apple a annoncé le report du lancement de la nouvelle fonctionnalité et la nécessité de son amélioration.
Un courriel qu’Apple a envoyé à certains membres des médias indique que la société a tenu compte de la réaction du public et a décidé de reporter le lancement d’un système de numérisation de photos personnalisé.
« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et à limiter la diffusion de documents relatifs à l’exploitation sexuelle des enfants », a déclaré Apple dans un communiqué.
Apple retarde la sortie du système de détection d’images de maltraitance d’enfants sur iPhone
« Basé sur les commentaires des clients, des groupes de défense des droits, des chercheurs et autres », poursuit-il ; « nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations ; avant de lancer ces fonctions de sécurité pour enfants d’une importance cruciale.
Dans le même temps, la lettre ne précise pas comment l’entreprise entend collecter des informations supplémentaires ; et avec qui il envisage de consulter pour améliorer la fonction de numérisation de photos. Initialement, l’innovation prévoyait de figurer parmi les fonctionnalités d’iOS 15; dont le lancement devrait avoir lieu cet automne.
«Nous souhaitons que cela soit ressorti un peu plus clairement pour tout le monde; parce que nous nous sentons très positifs et fortement sur ce que nous faisons ; et nous pouvons voir que c’est largement mal compris », a déclaré Federighi.
« Je vous l’accorde, avec le recul, introduire ces deux fonctionnalités en même temps était une recette pour ce genre de confusion », a-t-il poursuivi. « Il est vraiment clair que beaucoup de messages se sont mélangés assez mal. Je crois que le petit mot qui est sorti tôt était : « oh mon dieu ; Apple recherche des images sur mon téléphone.’ Ce n’est pas ce qui se passe. »

Système de détection d’images d’abus d’enfants Apple
« La protection étendue d’Apple pour les enfants change la donne », a déclaré John Clark, PDG et président du National Center for Missing & Exploited Children.
Avec autant de personnes utilisant des produits Apple ; ces nouvelles mesures de sécurité peuvent sauver la vie des enfants victimes de harcèlement en ligne ; et dont les images horribles circulent dans le matériel pédopornographique. Au Centre national pour les enfants disparus et exploités, nous savons que ce crime ne peut être combattu que si nous restons déterminés à protéger les enfants. Nous ne pouvons le faire que parce que les partenaires technologiques, comme Apple, se mobilisent et font connaître leur engagement. De plus, la réalité est que la vie privée et la protection des enfants peuvent coexister. Nous applaudissons Apple et sommes impatients de travailler ensemble pour faire de ce monde un endroit plus sûr pour les enfants.


