Le projet d’Apple de scanner les photos et messages privés des utilisateurs est qualifié de «surveillance de masse pour le monde entier»

1

Les spécialistes de la protection de la vie privée craignent que la nouvelle technologie de surveillance d’Apple ne soit constamment étendue et utilisée à mauvais escient.

 

Cette semaine, Apple, la société qui a vanté les mérites du slogan «ce qui se passe sur votre iPhone reste sur votre iPhone» dans l’une de ses campagnes publicitaires, a révélé qu’elle allait intégrer une nouvelle technologie de surveillance à ses iPhones, iPads et Macs et introduire le balayage sur l’appareil des photos et iMessages des utilisateurs.

Apple a présenté cette nouvelle technologie comme une « protection accrue pour les enfants », mais les défenseurs de la vie privée et les groupes de défense des droits tirent la sonnette d’alarme quant à l’expansion et à l’utilisation abusive potentielles de cette technologie.

« Aussi bien intentionnée soit-elle, @Apple déploie une surveillance de masse dans le monde entier avec cette technologie », a tweeté Edward Snowden, l’informateur de la National Security Agency (NSA). « Ne vous y trompez pas : s’ils peuvent aujourd’hui scanner du porno pour enfants, ils pourront demain scanner n’importe quoi. Ils ont transformé un billion de dollars d’appareils en iNarcs-* sans rien demander.* »

Il y a actuellement 1,65 milliard d’appareils Apple actifs dans le monde et Apple va d’abord déployer cette technologie de surveillance sur les appareils américains dans le courant de l’année avant de l’étendre à d’autres régions au fil du temps.

La nouvelle technologie de surveillance d’Apple se compose de deux éléments principaux : le balayage des photos et le balayage des iMessages.

Pour l’instant, la technologie de balayage des photos ne sera disponible que sur les iPhones et les iPads et implique la transformation d’une base de données de hachages d’images connues de matériel d’abus sexuel d’enfants (CSAM) en « un ensemble illisible de hachages stockés en toute sécurité sur les appareils des utilisateurs ». Les hachages sont fournis par des organisations de protection de l’enfance telles que le National Center for Missing and Exploited Children (NCMEC), qui travaille en collaboration avec les services de police américains.

Lorsqu’un utilisateur télécharge une photo sur le service de sauvegarde et de partage de photos dans le nuage d’Apple, iCloud Photos, un processus de correspondance sur l’appareil sera effectué pour cette image par rapport aux hachages CSAM connus. Une fois qu’un seuil non divulgué de correspondances est dépassé, Apple peut voir les photos signalées par la technologie et procéder à un examen manuel. Si une correspondance est confirmée par l’examen manuel, Apple désactive le compte iCloud de l’utilisateur et envoie un rapport au NCMEC.

La technologie d’analyse des iMessages sera disponible sur les iPhones, iPads et Macs et utilisera l’apprentissage automatique sur l’appareil pour analyser toutes les images iMessages envoyées ou reçues par les comptes d’enfants. Si une photo est jugée sexuellement explicite, elle sera automatiquement floutée et l’enfant sera averti. En fonction de l’âge de l’enfant, ses parents peuvent également être avertis si celui-ci consulte une photo sensible ou envoie une photo sensible à un autre contact après avoir été averti.

Les préoccupations des défenseurs de la vie privée et des groupes de défense des droits concernant cette technologie de surveillance relèvent de trois grands domaines : le risque d’erreur, l’expansion potentiellement sans fin et le manque de transparence.

Apple promet que sa technologie de numérisation des photos offre « un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de marquer incorrectement un compte donné ».

Mais Matthew Green, professeur de cryptographie à l’Université Johns Hopkins, a averti que les fonctions de hachage perceptif qui alimentent ce type de balayage sur l’appareil sont « imprécises » « à dessein » et pourraient entraîner le marquage et le signalement de photos inoffensives.

Selon la façon dont elles fonctionnent, il pourrait être possible pour quelqu’un de créer des images problématiques qui « correspondent » à des « images totalement inoffensives », a déclaré M. Green. « Comme des images politiques partagées par des groupes persécutés. Ces images inoffensives seraient signalées au fournisseur. »

La prochaine préoccupation majeure soulevée par les critiques est que, comme pour la plupart des types de technologies de surveillance, une fois introduites, rien n’empêche d’étendre la portée de la surveillance au-delà de son objectif initial.

Steven Murdooch, professeur d’ingénierie de la sécurité et chercheur universitaire de la Royal Society au sein du groupe de recherche sur la sécurité de l’information du département d’informatique de l’University College de Londres, a noté qu’en 2014, les fournisseurs d’accès à Internet (FAI) britanniques ont été contraints d’étendre le champ d’application du système qu’ils avaient créé pour bloquer les images d’abus d’enfants afin qu’il puisse également être utilisé pour bloquer l’accès aux sites Web qui font de la publicité et vendent des produits de contrefaçon.

Le tribunal a justifié sa décision en faisant valoir qu’une fois le système de blocage mis en place, le coût de la mise en œuvre d’ordres de blocage supplémentaires est « modeste ».

Et comme les gouvernements du monde entier font constamment pression pour avoir accès aux communications privées, il est presque inévitable que des arguments similaires soient présentés à Apple pour justifier l’extension de la portée de son système de balayage et de signalisation sur les appareils.

Cette possibilité devient encore plus alarmante lorsque vous tenez compte de la façon dont Apple opère en Chine. En 2018, Apple a confié ses opérations iCloud en Chine à une entreprise d’État. Et plus tôt cette année, un rapport a allégué qu’Apple avait compromis la sécurité d’iCloud en Chine et fourni des clés de chiffrement au gouvernement chinois. En plus de ces rapports sur iCloud, Apple a constamment censuré pour la Chine.

« Tout ce qu’il faudrait pour élargir l’étroite porte dérobée qu’Apple est en train de construire, c’est une expansion des paramètres d’apprentissage automatique pour rechercher d’autres types de contenu, ou une modification des drapeaux de configuration pour scanner, non seulement les comptes des enfants, mais ceux de n’importe qui », a écrit le groupe de défense des libertés civiles numériques Electronic Frontier Foundation (EFF) en réponse à l’annonce par Apple de cette technologie de surveillance. « Les cas d’abus sont faciles à imaginer : les gouvernements qui interdisent l’homosexualité pourraient exiger que le classificateur soit formé pour restreindre le contenu LGBTQ+ apparent, ou un régime autoritaire pourrait exiger que le classificateur soit capable de repérer les images satiriques populaires ou les tracts de protestation. »

Le hic, c’est qu’avec la plupart des autres formes de surveillance de Big Tech, cela se passe sur des fichiers que les utilisateurs ont déjà partagés sur les serveurs de l’entreprise. Apple scanne les photos privées sur l’appareil. Pour l’instant, cette surveillance sur l’appareil ne sera déclenchée que lorsque les utilisateurs téléchargeront des photos sur les serveurs d’Apple via iCloud photos, mais comme le souligne l’EFF, ces paramètres peuvent être modifiés par Apple à tout moment.

En outre, contrairement à la plupart des autres entreprises de Big Tech, Apple a vendu son matériel sur la promesse d’une protection de la vie privée. Non seulement la société a lancé sa campagne publicitaire « ce qui se passe sur votre iPhone, reste sur votre iPhone », mais le PDG Tim Cook a affirmé à plusieurs reprises que « la vie privée est un droit humain fondamental ».

Enfin, le manque de transparence aggrave ces préoccupations. Seuls Apple et ses partenaires connaissent le véritable taux d’erreur et le contenu des hachages qui sont enregistrés sur les appareils des utilisateurs. Si le taux d’erreur change ou si les hachages sont étendus pour analyser un plus grand nombre de catégories de contenu, les utilisateurs ne le sauront que si et quand Apple décidera de le leur dire.

Il suffit de regarder le Global Internet Forum to Counter Terrorism (GIFCT), une alliance de censure de Big Tech, pour voir comment un manque de transparence autour d’une technologie de hachage similaire s’est manifesté. Les chercheurs n’ont pas accès à la base de données de hachage qui détermine le contenu qui sera censuré par les membres du GIFCT. Et bien que l’objectif déclaré du GIFCT soit de bloquer les contenus terroristes, les groupes de défense des droits numériques affirment qu’il a largement dépassé ce cadre et bloque désormais les contenus s’opposant au terrorisme, les satires, les reportages des médias et d’autres types de contenus légaux.

Alors que de nombreux défenseurs de la vie privée et groupes de défense des droits ont soulevé ces préoccupations, la réponse initiale d’Apple et du NCMEC a été dédaigneuse. Dans un mémo interne distribué aux équipes d’Apple qui ont travaillé sur cette technologie de surveillance, Apple a inclus un message de la directrice exécutive des partenariats stratégiques du NCMEC, Marita Rodriguez, qui qualifie les protestations contre ces nouvelles mesures de surveillance de « voix criardes de la minorité ».

Source : https://www.aubedigitale.com/le-projet-dapple-de-scanner-les-photos-et-messages-prives-des-utilisateurs-est-qualifie-de-surveillance-de-masse-pour-le-monde-entier/https://reclaimthenet.org/apple-mass-surveillance-private-photos-messages/ et https://www.apple.com/child-safety/


Si l’article vous a plu, n’hésitez pas à vous abonner à nos Réseaux Sociaux / NewsLetter ainsi qu’à partager l’article sur vos pages / groupes Facebook, cela aide énormément à l’information. Et si vous vous sentez guidé, soutenir le site par un don Paypal ou par Tipeee. Merci beaucoup.

1 Commentaire

Donnez votre Avis :)

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.