Apple abandonne son projet d’analyser des photos d’utilisateurs

Apple a décidé d’abandonner son projet d’analyser les photos des utilisateurs. Ce projet controversé avait pour objectif de lutter contre la pédopornographie. Finalement, il ne verra pas le jour. 

En août 2021, Apple annonce vouloir analyser le contenu de la galerie photo des utilisateurs. Cette annonce fera grand bruit et suscitera de nombreuses réactions. Positives ou négatives. Après avoir mis en pause le projet courant du mois de septembre 2021, la firme de Cupertino décide d’enterrer ce projet.

Voici quelques extraits du communiqué :

Nous avons décidé de ne pas aller de l’avant avec notre outil de détection CSAM que nous avions proposé pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles”, explique Apple. “Nous continuerons à travailler avec les gouvernements, les organisations de protection de l’enfance et d’autres entreprises pour aider à protéger les enfants, à préserver leur droit à la vie privée et à faire d’internet un endroit plus sûr pour tous”.

Un contrôle qui pose problème

L’objectif de ce projet était d’être en mesure de détecter des photos à caractère inapproprié à l’aide d’un traitement sur l’appareil, sans jamais voir les photos des utilisateurs. La fonctionnalité permettait de faire “matcher” le contenu des photos avec des références connues sur la maltraitance des enfants. Le tout via un par un algorithme haché.

Bien que l’idée principale soit louable, la mise en application l’était beaucoup moins. En effet, cette fonction a dérangé beaucoup de personnes. En effet, de nombreuses personnalités estimaient qu’Apple n’avait pas à faire un tel scanning des photos. D’autres estimaient que la marque à la pomme tenait un double discours en rapport avec le respect de la vie privée. En fin de compte, Apple décide de mettre un terme à ce projet.

_
Suivez Belgium-iphone sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.