Vie privée : Des voix s’élèvent contre le système d’Apple de lutte à la pédopornographie

Gabriel Gagnon Monde du sans-fil, Nouvelles, Société Leave a Comment

Apple a annoncé la semaine dernière qu’elle allait activer avec iOS 15, aux États-Unis seulement pour le moment, une nouvelle fonction de détection d’images pédopornographiques. Sauf que malgré l’intention louable (protéger ce que la société a de plus précieux), le système est, selon plusieurs experts en sécurité, personnalités publiques du monde techno et activistes, une grave atteinte à la vie privée des utilisateurs d’appareils pommés. Voici ce qu’ils en pensent.

Protéger les enfants en oubliant la vie privée

D’abord, comment Apple compte-t-elle s’y prendre? Rassurez-vous, je vais vous épargner les détails techniques. En gros, l’entreprise recevra une banque d’images du Centre national pour les enfants disparus et abusés des États-Unis (NCMEC). Cette banque sera transformée en séries de chiffres. Lorsque des photos seront envoyées d’un iPhone vers iCloud, l’appareil analysera les images pour en créer une série de chiffres et ira comparer avec les séries sur les serveurs de l’entreprise. Si des photos ont des correspondances parmi la banque nationale, un avertissement sera émis et l’image pourra être analysée par un humain. Le NCMEC pourra alors alerter les autorités.

Donc, Apple ne devrait pas pouvoir voir vos photos, et l’entreprise nous assure que son système ne pourra servir uniquement à la détection d’images d’enfants abusés. Qui pourrait être contre la protection des enfants? Personne! Mais plusieurs sont contre l’invasion de la vie privée des utilisateurs, même de ceux qui n’ont rien à se reprocher.

L’entreprise affirme d’ailleurs que son logiciel d’analyse ne se trompe qu’une fois sur un billion (mille milliards) de fois par année.

Un système qui fait presque l’unanimité contre lui

L’activiste et ex-employé de la NSA Edward Snowden sonne l’alarme. Selon lui, Apple est en train de déployer un énorme système de surveillance de masse, sans le consentement de ses utilisateurs.

« S’ils peuvent scanner des images pédopornographiques aujourd’hui, ils pourront scanner ce qu’ils veulent demain Apple a transformé mille milliards de dollars d’appareils en iNarcs [iRapporteur]… sans le demander. »

L’Electronic Frontier Foundation (EFF) utilise un ton tout aussi grave. L’ONG de protection des droits fondamentaux sur Internet croit qu’un tel système brise la promesse du chiffrement de bout en bout et ouvre la porte aux abus. Il serait très facile de modifier le mécanisme bientôt offert pour qu’il cherche d’autres types de contenus. La fondation pousse la réflexion jusqu’à imaginer un gouvernement autoritaire qui utiliserait le système d’Apple pour détecter les images de manifestations, les illustrations satiriques ou celles liées aux causes LGBTQ+.

On sait aussi qu’Apple se pli souvent aux demandes de gouvernements dictatoriaux comme celui de la Chine ou des Émirats arabes unis (EAU). Les données de tous les Chinois sont stockées en Chine et donc accessibles aux autorités du pays, Apple a retiré plusieurs milliers d’applications de l’App Store chinois à la demande du gouvernement local, et les iPhone vendus dans les ÉAU n’ont pas Facetime d’installé, le pays interdit les appels vidéo chiffrés.

Une lettre ouverte circule aussi sur le net. Elle demande à Apple de « reconsidérer le déploiement de sa technologie » parce qu’elle détruit « des décennies de travail par des technologues, des universitaires et des défenseurs des politiques protectrices de la vie privée. » Elle a déjà récolté plus de 7 000 signatures.

Le PDG de WhatsApp a lui aussi tiré à boulets rouges sur l’annonce d’Apple. Sur Twitter, il a expliqué que selon lui, ce système est troublant et que son entreprise n’utiliserait aucune technologie de ce type.

La réponse d’Apple

À Cupertino, on marche sur des œufs. Récemment, presque toute la communication autour de l’iPhone visait à le présenter comme le seul téléphone qui protège la vie privée de ses utilisateurs.

Publicité d'Apple pour vanter sa protection de votre vie privée

Un panneau publicitaire à Las Vegas pendant le CES 2019 : « Ce qui se passe sur votre iPhone, reste sur votre iPhone ».

L’entreprise a donc dû préciser le fonctionnement de son outil pour rassurer ses utilisateurs. Dans une foire aux questions, Apple précise que l’analyse s’effectue sur l’iPhone en utilisant des chiffres, que le système ne peut que reconnaître les images qui contiennent de la pornographie juvénile et qu’elle refuserait toutes les demandes de gouvernements pour étendre sa technologie à d’autres catégories d’images. Le document précise aussi que le signalement aux autorités n’est pas automatique. Un humain valide le drapeau levé par l’analyse et l’envoie ensuite aux organismes de protection des enfants partenaires. Ce sont elles qui décideront s’il y a matière à signalement.

Apple rappelle aussi qu’aux États-Unis, tout comme au Canada et dans plusieurs autres juridictions, la simple possession de pornographie juvénile est illégale et quelqu’un qui est témoin d’un tel crime doit en faire part aux autorités.

Qu’en pensez-vous?

Je veux vous lire. Êtes-vous pour ou contre cette nouvelle technologie? Il y a évidemment des avantages à utiliser un tel système. Le premier : envoyer des pédophiles et des abuseurs d’enfants derrière les barreaux. Mais pouvons-nous être certains que ce système ne sera jamais utilisé contre personne d’autre? Poser la question, c’est quasiment y répondre.

Rappelons qu’Apple s’est battu publiquement contre le FBI qui demandait qu’elle crée une porte dérobée dans ses appareils pour faciliter le travail de ses enquêteurs. L’historique de l’entreprise est positif. Mais le restera-t-il?

Ajouter un commentaire