Nous sommes tous suspects jusqu’à preuve du contraire

Bonjour, je suis Chris.

Je suis là pour vous aider à chaque étape de votre voyage PRVCY.

Nous publions des nouvelles et des informations basées sur nos recherches pour vous aider à reprendre le contrôle de votre PRVCY!

Selon les mots de l'Union européenne, la diffusion d'images et de vidéos d'abus sexuels sur enfants, qui a considérablement augmenté avec le développement du monde numérique, permet de créer des "solutions" où le contrôle de toutes nos activités numériques devient acceptable.

Bien que le préjudice subi par les victimes soit infini et que les auteurs aient trouvé de nouveaux moyens d’accéder à des enfants et des fournisseurs de services d’hébergement ou de communication interpersonnelle via les services numériques, notre vie privée et notre intimité sont un droit humain fondamental.

Les autorités publiques dans le monde entier veulent nous faire croire que leur politique de surveillance est un comportement responsable et prudent, essentiel pour un environnement en ligne sûr, prévisible et digne de confiance, ainsi que pour l’exercice des droits fondamentaux garantis. Au Royaume-Uni, les responsables gouvernementaux ont exprimé pendant des années des préoccupations quant à l’inefficacité des services en ligne face aux contenus illégaux, notamment le matériel d’abus sexuels sur enfants.

La “solution” était le Online Safety Bill, avec lequel le Royaume-Uni prétend devenir l’endroit le plus sûr au monde pour utiliser Internet. Mais ne vous inquiétez pas, cette loi terrible ne concerne pas seulement le Royaume-Uni – c’est un modèle pour la répression dans le monde entier. Les partisans de la loi soulignent les pires contenus en ligne comme les publications terroristes et les abus d’enfants, mais la surveillance ne s’arrêtera pas là.

Les entreprises seront contraintes de surveiller d’autres catégories de contenu et de partager des informations sur les utilisateurs entre différents pays. Les journalistes et les militants des droits de l’homme seront inévitablement ciblés. Et les utilisateurs ne pourront jamais être sûrs que leurs messages privés ne sont pas lus et interceptés par des entreprises privées.

Apple a toujours une longueur d’avance dans la collaboration avec les gouvernements

En août 2021, Apple a annoncé un plan pour analyser les photos que les utilisateurs stockent dans iCloud à la recherche de matériel sur l’abus sexuel d’enfants (CSAM). L’outil visait à protéger la vie privée tout en permettant à l’entreprise de signaler les contenus potentiellement problématiques et abusifs sans révéler autre chose.

Cependant, cette initiative fut controversée et suscita rapidement de vives critiques de la part de chercheurs en confidentialité et en sécurité, ainsi que des groupes pour les droits numériques qui craignaient que la fonction de surveillance ne soit elle-même abusée pour compromettre la vie privée et la sécurité des utilisateurs d’iCloud dans le monde entier. Début septembre 2021, Apple a annoncé qu’il suspendait le déploiement de la fonction pour “recueillir des retours et apporter des améliorations avant la publication de ces importantes fonctionnalités de sécurité enfant”.
En d’autres termes, le déploiement est à venir. Maintenant, l’entreprise dit que l’outil de détection CSAM pour les photos iCloud n’est plus disponible en raison des retours et des conseils reçus.

Au lieu de cela, Apple a déclaré cette semaine à WIRED, que l’entreprise concentre ses efforts et ses investissements dans la lutte contre le CSAM sur ses fonctions de “Communication Safety”, annoncées en août 2021 et introduites en décembre dernier. Les parents et les tuteurs peuvent s’inscrire à la protection via les comptes familiaux d’iCloud. Les fonctions fonctionnent dans Siri, la recherche Spotlight d’Apple et la recherche Safari pour alerter quand quelqu’un regarde ou recherche du matériel sur l’abus sexuel d’enfants, et pour fournir immédiatement des ressources afin de signaler le contenu et demander de l’aide.

Les enfants, tout comme les adultes, comptent sur des applications de communication cryptées comme WhatsApp ou Signal et s’attendent à juste titre à ne pas être soumis à une vérification d’identité obligatoire, à un filtrage arbitraire et à une surveillance. Les enfants maltraités ont surtout besoin de canaux privés et sécurisés pour signaler ce qui leur est arrivé. Ce projet de loi vise à protéger les enfants, mais ignore leur vie privée et passe outre les principes internationalement reconnus des droits des enfants.

Mais le parlement ne s’en est pas soucié. Pire encore, le Royaume-Uni n’est pas seul : Comme il est impossible pour le public de soutenir l’idée que la police scanne chaque message numérique, les législateurs d’autres démocraties libérales se sont également tournés vers des solutions de contournement, affirmant que des portes dérobées dans le chiffrement sont nécessaires pour enquêter sur les fichiers concernant les crimes les plus horribles. Ils ont faussement prétendu que certaines méthodes pour contrôler les fichiers et messages des utilisateurs, comme le balayage côté client, ne brisent pas du tout le chiffrement.

Les autorités ont même tenté – et ont heureusement échoué – de mettre Apple sous pression pour introduire un système de scanners logiciels sur chaque appareil, cherchant en permanence des images d’abus sexuels sur enfants et rapportant aux autorités.

 

Pour gérer les citoyens, les États ont recours à la surveillance, c’est-à-dire à la collecte et au stockage systématiques
de données personnelles “pour protéger, comprendre, soigner, contrôler, gérer ou
influencer des individus ou des groupes”. À travers ses systèmes de protection sociale et d’application de la loi,
l’État recueille d’importantes informations sur la population et identifie les groupes marginaux.

Comme nous l’avons vu dans le cas Epstein, le trafic et les abus d’enfants ont pu être gérés et concentrés sur des personnalités en vue, incluant même des politiciens, de sorte que ces lois sont plutôt associées dans ce cas à la vision de Foucault d’un inspecteur unique, central et omniscient, conceptualisant plutôt une “assemblée de surveillance” intégrant des informations à travers les systèmes. Dans ce concept, les capacités modernes de stockage et de fusion de données rassemblent des systèmes auparavant séparés, conduisant à une surveillance de plus en plus fluide et complète.

Il n’y a pas de voie médiane, pas de “porte dérobée sécurisée” si Internet doit rester libre et privé. Il est maintenant peut-être trop tard pour arrêter ces développements. Combattre le CSAM est une entreprise complexe et nuancée, dans laquelle énormément d’enjeux sont en jeu pour les enfants du monde entier, et il est encore incertain de savoir à quel point les grandes entreprises technologiques, qui misent sur une intervention proactive, obtiendront de l’adhésion. Mais les géants de la tech marchent sur une ligne fine en essayant de concilier la détection du CSAM et la confidentialité des utilisateurs.

L’importance de prévenir et de combattre les abus sexuels sur enfants ne doit pas justifier l’introduction de programmes de surveillance de masse. Les États doivent trouver des solutions pour que les informations personnelles, la communication et les appareils des citoyens restent privés, mais comme l’expérience nous montre sans cesse que nous ne pouvons pas faire confiance aux gouvernements sur ce sujet, il existe PRVCY World depuis le début.

Découvrez nos cours PRVCY pour vous :

Portable

Ordinateur portable

Dernières nouvelles de PRVCY Insider :

Catégories

Salut, je suis Chris.

Je suis ici pour vous aider à chaque étape de votre parcours PRVCY.

Nous publions des nouvelles et des informations, basées sur nos recherches, pour vous aider à reprendre le contrôle de votre PRVCY !

PRVCY Insider

Pour votre confidentialité et sécurité numérique

7 façons dont Big Tech vole vos données en ce moment même, et comment vous pouvez l’arrêter en 10 minutes.

DE - PRVCY Insider