NeuralHash : Apple défend son très décrié système de lutte contre la pédocriminalité

Publicité

NeuralHash : Apple défend son très décrié système de lutte contre la pédocriminalité

Par
Les annonces d'Apple pour lutter contre la pédocriminalité inquiètent certains défenseurs des libertés sur internet.
Les annonces d'Apple pour lutter contre la pédocriminalité inquiètent certains défenseurs des libertés sur internet.
© Maxppp - FRANCK ROBICHON/EPA/Newscom

Apple se trouve depuis quelques jours sous le feu des critiques en raison de l'annonce d'un nouvel outil dédié à la lutte contre la pédocriminalité. Face aux craintes liées au respect de la vie privée des utilisateurs, la multinationale se veut rassurante et transparente.

Le 6 août dernier, Apple présentait sur son site internet un nouvel outil dédié à la lutte contre la pédocriminalité nommé "NeuralHash".  L'idée de la firme de Cupertino : scanner l'ensemble des photos des iPhones synchronisés avec iCloud pour trouver d'éventuels traces de clichés pédopornographiques et, si nécessaire, prévenir les autorités compétentes. Apple souhaite déployer cet algorithme progressivement sur l'ensemble de ses appareils, en commençant par les États-Unis d'ici à la fin de l'année. Problème : l'annonce de la firme à la pomme a été très mal accueillie par les défenseurs des libertés sur internet.

Qu'est-ce que NeuralHash ? 

Ce système permet de comparer la signature électronique de chaque photo (c'est à dire une suite de 0 et de 1 permettant d'identifier la photo sans la voir) à une base de données composée d’autres signatures électroniques de clichés considérés comme pédopornographiques. Si la signature d’un cliché correspond à la signature d’un fichier présent sur la base, Apple procédera à une vérification manuelle et prendra une décision au cas par cas. La transformation en code binaire permet donc une comparaison rapide sans transmettre des informations sur le contenu même des images à Apple. Le logiciel sera d'ailleurs capable de reconnaître une image même si elle a subi des changements mineurs, comme un recadrage. 

Publicité

Cette base ne sera pas gérée et alimentée par Apple, mais par le NCMEC (National Center for Missing and Exploited Children), une association américaine de défense des droits des enfants. Apple précise également que la détection n’intervient que quand une photo est synchronisée avec le cloud. Si la synchronisation est désactivée, aucun scan ne pourra être effectué. Pour autant, le processus de vérification se fera localement, sur le téléphone, pour éviter d'avoir à transiter par des serveurs tiers, potentiellement mal sécurisés.

Que reproche-t-on à ce nouvel outil ?

NeuralHash a immédiatement engendré à une levée de boucliers, notamment de la part de défenseurs des libertés sur internet, dénonçant les éventuels risques d'une telle technologie pour la vie privée des utilisateurs d'appareils Apple. Sur Twitter, l’ancien consultant pour la NSA et lanceur d’alerte Edward Snowden a fustigé un outil de "surveillance de masse", ajoutant que "s’ils peuvent scanner du contenu pédopornographique aujourd’hui, ils pourront scanner n’importe quoi demain".

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

L’EFF (Electronic Frontier Foundation), une ONG américaine de défense des libertés sur internet, redoutait quant à elle dans un communiqué que cette solution s’apparente à une "porte dérobée", en référence aux failles de sécurité parfois présentes, intentionnellement ou non, dans des systèmes informatiques pour faciliter le piratage et la surveillance. Ces portes dérobées (ou "backdoors" en anglais) permettent d'obtenir des informations habituellement inaccessibles en exploitant les faiblesses d'un programme, comme on passe à travers la brèche d'un mur. Si Apple (et d'autres multinationales du numérique) procède déjà à des vérifications des contenus hébergés sur sa solution de cloud, la nouveauté d'inclure ce processus directement dans le téléphone localement inquiète et pose justement la question des éventuelles failles de sécurité déjà présente sur un iPhone.

Même Will Cathcart, le PDG de Whatsapp (propriété de Facebook), s’est ému de ces annonces sur Twitter en considérant qu’elles étaient "un revers pour la vie privée des gens partout dans le monde". Il a, en outre, précisé qu'il ne comptait pas intégrer une telle technologie à Whatsapp.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Comment Apple a répondu ?

Prenant en compte les critiques qui lui ont été adressées, Apple a publié un communiqué ce dimanche 9 août pour dissiper les principales inquiétudes liées au fonctionnement de NeuralHash. L’entreprise répond notamment à une question posée par de nombreux acteurs du monde du numérique : pourra-t-elle un jour être forcée par des gouvernements à détecter d’autres types de photographies, comme des images représentant des personnes homosexuelles par exemple ? À cela, Apple répond fermement par la négative :

Nous avons déjà été confrontés par le passé à des demandes de certains gouvernements portant atteinte à la vie privée de nos utilisateurs et nous avons toujours fermement refusés. Nous continuerons à le faire.

Par ailleurs, Apple a martelé que chaque signalement positif provenant de ses algorithmes fera l’objet d’une vérification humaine, pour éliminer les "faux positifs". Mais la multinationale ne nie pas pour autant les problèmes éthiques posés par cette nouvelle technologie et marche sur des œufs. Elle promet que son extension dans de nouveaux territoires fera systématiquement l’objet d’un examen approfondi, en analysant les risques associés à chaque pays.

Pour l’avocat spécialiste des questions numériques Alexandre Archambault, la stratégie de communication d’Apple a le mérite d’être transparente : "En mettant en avant cette technologie sur la place publique, Apple a conscience que sa technologie est imparfaite et s’ouvre aux critiques soulevées par d’autres acteurs".

Apple se substitue-t-il aux États ?

Évidemment, Apple ne peut pas faire preuve d’une transparence totale en donnant libre accès à la base de données ou en publiant le code source original. L’entreprise souhaite justement se prémunir contre de possibles détournements de son programme en gardant une part de secret sur son fonctionnement. C’est à la fois la force et la faiblesse du dispositif : le risque de piratage est réduit mais la possibilité d’avoir des garde-fous dignes de confiance l'est tout autant. 

"Apple a compris que la lutte contre la cybercriminalité ne pouvait pas se jouer que dans les antichambres feutrées du pouvoir. Évoquer ce débat publiquement provoque forcément un émoi parce que nous n’y sommes pas habitués concède Alexandre Archambault, ça n'en reste pas moins déroutant voire effrayant du point de vue du droit". 

Pour l'avocat, "l’ensemble des points de vigilance qui ont été soulevés, notamment par l’Electronic Frontier Foundation, sont pertinents et doivent être considérés". La technologie est neutre (il ne s’agit que de calculs mathématiques), mais son utilisation est politique : "On a des exemples, dans nos démocraties occidentales, d’outils de surveillance et de régulation sur internet cantonnés à des usages stricts qui ont finalement été étendus. Au départ il n'était question que de sites pédocriminels et on a pu progressivement élargir le cadre" complète-t-il. Le risque zéro n'existe donc pas et il faudra rester vigilant.

Avec la montée en puissance des GAFAM à l’échelle internationale il sera cependant difficile de faire l’économie d’un débat sur le sujet. Le juriste spécialiste des questions numériques considère qu’ "Apple est venu couper l’herbe sous le pied des États, qui, eux, voient le chiffrement des données comme un obstacle à leurs politiques. Les questions numériques, comme les questions écologiques, ne peuvent être traitées efficacement qu’à l’échelle supranationale". Face à cela, les acteurs privés, pour qui les frontières sont une notion inconnue, sont donc logiquement devenus force de propositions pour répondre à ces problématiques.

pixel