Vie privée : Apple reconnait une énorme erreur de comm’

C’est le vice-président senior de l’ingénierie logicielle, Craig Federighi, qui admet qu’Apple a quelque peu bâclé sa communication autour du système d’analyse des photos.

Nous vous expliquions le 6 août dernier qu’Apple avait mis au point une IA capable d’analyser la bibliothèque de photos iCloud d’un utilisateur et d’y déceler les clichés à caractère pédopornographique. Une seconde nouveauté, lancée dans la foulée de la première, permet aux parents de contrôler les photos qui sont partagées par et avec leurs enfants dans les messages. Depuis ces annonces, la firme de Cupertino a été lynchée de toute part, et ce, autant par les analystes et spécialistes que par des personnalités, comme le lanceur d’alerte Edward Snowden.

Depuis ses annonces, Apple n’est plus revenu sur le sujet, que ce soit pour faire son mea-culpa ou admettre vouloir finalement faire machine arrière. Même Tim Cook est resté muet depuis, probablement de peur de rajouter de l’huile sur le feu. Finalement, un des cadres d’Apple, Craig Federighi, est sorti du silence pour enfin s’exprimer quant à la communication d’Apple. 

Crédit photo : AFP.

Dans un entretien accordé à nos confrères du Wall Street Journal, l’homme fort d’iOS déclare que les cadres d’Apple auraient pu mieux gérer la façon dont ces informations ont été distillées, et qu’un peu plus de précisions aurait permis aux gens de mieux comprendre les faits.

Nous, qui nous considérons comme des leaders absolus en matière de protection de la vie privée, voyons ce que nous faisons ici comme une avancée de l’état de l’art en matière de protection de la vie privée, comme la possibilité de créer un monde plus privé“, insiste Craig Federighi dans son interview.

Si Apple se considère comme un pionnier en matière de confidentialité de ses utilisateurs, elle restait à la traîne dans la lutte contre la pédopornographie et voulait marquer le coup comme il se doit avec ces nouvelles fonctions. Cependant, Apple a, sans le vouloir, créé une sorte de confusion en annonçant les deux fonctionnalités dans la foulée. Les gens ont ainsi cru que les photos de leurs enfants stockées dans leur iPhone et ensuite partagées avec d’autres personnes allait pousser Apple à les cataloguer et à en avertir les autorités compétentes.

Avec le recul, introduire ces deux fonctionnalités en même temps était l’idéal pour causer ce genre de confusion. En les publiant en même temps, les gens les ont techniquement connectées et ont eu très peur : “Que se passe-t-il avec mes messages ?” La réponse est… rien. Il ne se passe rien avec vos messages“, se justifie-t-il.

Le message que recevront les utilisateurs américains à l’automne 2021. 

Ce qu’il faut toutefois préciser, c’est que le système d’Apple ne sera mis en place qu’avec les photos stockées dans iCloud. Les utilisateurs qui gardent leurs clichés et vidéos uniquement dans le stockage interne de l’appareil ne recevront aucun message de la part d’Apple, qui sera ainsi dans l’incapacité d’analyser les photos.

Apple compte aller au bout du projet

Federighi le martèle : ce qui a causé du tort à Apple, c’est avant tout son manque de clarté dans ses déclarations. Néanmoins, il est persuadé que ces nouvelles fonctionnalités seront utiles dans la lutte contre la pédopornographie, et que c’est un mal pour un bien. 

Il est évident qu’un grand nombre d’informations ont été mal interprétées“, déclare Craig Federighi. “Nous aurions aimé que les choses soient un peu plus claires pour tout le monde, parce que nous sommes très positifs et convaincus par ce que nous faisons.”

Ça a, certes, le mérite d’être clair, mais ce n’est peut-être pas suffisant pour apaiser les craintes des analystes et spécialistes en la matière. Pour rappel, Apple était énormément à la traîne en matière de lutte contre la pédopornographie et souhaitait prendre le taureau par les cornes. Ils ont ainsi déclaré vouloir analyser plus en profondeur les photos stockées par les utilisateurs dans iCloud, mais également permettre aux parents de mieux contrôler les photos qu’envoient ou reçoivent leurs enfants.

Une initiative louable donc, mais qui pose de sérieux problèmes de confidentialité, ce que pointent du doigt les spécialistes. En faisant cela, Apple s’autorise à rentrer dans la vie privée des gens et à analyser leurs photos dans le but de lutter contre la pornographie infantile. Si compatibilité il y a entre une trentaine de vos photos et les photos de pédopornographie qui circulent le plus sur le web, alors Apple se méfiera de votre profil et alertera les autorités si elle le juge nécessaire.

Si et seulement si vous atteignez un seuil de quelque chose de l’ordre de 30 images pédopornographiques connues qui correspondent, ce n’est qu’à ce moment-là qu’Apple sait quelque chose sur votre compte et sur ces images, et à ce moment-là, elle ne connaît que ces images, et aucune de vos autres images“, explique Craig Federighi. “Il ne s’agit pas de faire une analyse pour savoir si vous aviez une photo de votre enfant dans la baignoire ? Ou, d’ailleurs, si vous aviez une photo de nature pornographique de toute autre sorte ? Il s’agit littéralement d’une comparaison des empreintes digitales exactes d’images pédopornographiques spécifiques connues.”

Le schéma fourni par Apple. 

De nombreuses voix se sont notamment élevées pour déclarer que cette “base de données” sur laquelle se basera Apple pour ses comparaisons pourrait très facilement être corrompues à des fins politiques, ce qu’a immédiatement réfuté Craig Federighi. Selon lui, la base de données récupère les photos fournies par de nombreuses associations de lutte pour la sécurité de l’enfant et que la base de données seraient régulièrement vérifiées par des entités indépendantes.

Si Federighi s’excuse pour ce manque de clarté dans la communication d’Apple, il précise toutefois que la Pomme ne fera pas de retour en arrière. Le lancement des fonctionnalités aux Etats-Unis reste bel et bien programmé pour l’automne 2021, que cela plaise ou non aux plus réfractaires.