Pour la première fois depuis près de 30 ans, Apple était présente au CES de Las Vegas pour parler confidentialité.

Pas d’annonce de nouveau produit au programme, la venue d’Apple au CES se faisait uniquement dans le cadre d’une conférence à propos de la confidentialité. Aux côtés des responsables de la confidentialité de Facebook, de Procter et Gamble, ainsi que de la Federal Trade Commission, la directrice de la confidentialité chez Apple, Jane Horvarth, est revenue sur ce sujet et sur l’engagement de la Pomme à ce propos.

Une prise de parole durant laquelle Jane Horvarth a indiqué que la firme californienne procédait au scan systématique des contenus téléchargés sur la plateforme iCloud. Un scan qui se faisait par le biais d’une technologie spéciale et qui n’impliquait pas, dans un premier temps, d’intervention humaine.

La technologie évoquée est un logiciel spécialisé utilisé par d’autres grandes entreprises (Facebook, Twitter, Google) qui permet de détecter tout abus sexuel sur des enfants. Le logiciel PhotoDNA a été spécialement créé dans ce but. Le scan des photos des utilisateurs d’iCloud se fait donc uniquement pour détecter des abus sexuels sur des enfants.

En cas de détection de contenus suspects, Apple procède à un examen individuel et à la désactivation du compte iCloud si le contenu étudié est en infraction avec les conditions générales de service de la Pomme.

Au terme de la conférence, Apple a profité du CES pour rappeler ses engagements sur une page dédiée. La firme californienne est d’ailleurs revenue en détail sur l’utilisation du logiciel PhotoDNA dans le cadre de la lutte contre les abus sur mineurs :

« Apple s’engage à protéger les enfants dans l’ensemble de notre écosystème, quel que soit l’endroit où nos produits sont utilisés, et nous continuons à soutenir l’innovation dans ce domaine. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne logistique. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d’images pour aider à trouver et à signaler les cas d’exploitation d’enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d’exploitation d’enfants. Nous validons chaque correspondance par un examen individuel. Les comptes comportant du contenu d’exploitation d’enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé. »