Nas palavras da União Europeia, a disseminação de imagens e vídeos de abuso sexual infantil, que aumentou dramaticamente com o desenvolvimento do mundo digital, permite a criação de "soluções" onde o controle de todas as nossas atividades digitais se torna aceitável.
Embora os danos causados às vítimas sejam infinitos e os agressores tenham encontrado novos caminhos através dos serviços digitais para acessar crianças e provedores de hospedagem ou serviços de comunicação interpessoal, nossa privacidade e intimidade são direitos humanos fundamentais.
As autoridades públicas ao redor do mundo querem que acreditemos que suas políticas de vigilância são um comportamento responsável e cuidadoso, essencial para um ambiente online seguro, previsível e confiável e para o exercício dos direitos fundamentais garantidos. No Reino Unido, funcionários governamentais expressaram preocupações há anos de que os serviços online não estão fazendo o suficiente contra conteúdos ilegais, especialmente material de abuso sexual infantil.
A “solução” foi o Projeto de Lei de Segurança Online, com o qual o Reino Unido pretende se tornar o lugar mais seguro do mundo para usar a Internet. Mas não se preocupe, esta lei terrível não afeta apenas o Reino Unido – é um modelo para opressão em todo o mundo. Os defensores da lei apontam para os piores conteúdos online, como postagens terroristas e abuso infantil, mas a vigilância não termina aí.
As empresas serão forçadas a monitorar mais categorias de conteúdo e compartilhar informações sobre usuários entre diferentes países. Jornalistas e ativistas de direitos humanos inevitavelmente se tornarão alvos. E os usuários nunca poderão ter certeza se suas mensagens privadas estão sendo lidas e interceptadas por empresas privadas.
A Apple está sempre um passo à frente na colaboração com governos
Em agosto de 2021, a Apple anunciou um plano para verificar fotos armazenadas pelos usuários no iCloud em busca de material de abuso sexual infantil (CSAM). A ferramenta foi projetada para proteger a privacidade e permitir que a empresa marcasse potenciais conteúdos problemáticos e abusivos sem revelar mais nada.
No entanto, a iniciativa foi controversa e logo atraiu críticas generalizadas de pesquisadores de privacidade e segurança, bem como de grupos de direitos digitais que temiam que a própria funcionalidade de vigilância pudesse ser abusada para minar a privacidade e a segurança de usuários do iCloud em todo o mundo. No início de setembro de 2021, a Apple anunciou que iria pausar a introdução da funcionalidade para “coletar sugestões e fazer melhorias antes que essas importantes funções de segurança infantil sejam lançadas”.
Em outras palavras: a introdução ainda está por vir. Agora a empresa diz que a ferramenta de detecção de CSAM para fotos no iCloud não está mais disponível devido ao feedback e dicas recebidas.
Em vez disso, conforme declarou a Apple esta semana ao WIRED, a empresa está concentrando seus esforços e investimentos no combate ao CSAM em suas funções de “Segurança de Comunicação”, anunciadas em agosto de 2021 e lançadas em dezembro do ano passado. Pais e tutores podem optar pela proteção através das contas familiares no iCloud. As funções funcionam no Siri, na busca do Spotlight da Apple e na busca do Safari, para alertar quando alguém está visualizando ou procurando material de abuso sexual infantil, além de fornecer recursos no local para relatar o conteúdo e buscar ajuda.
Crianças, assim como adultos, dependem de aplicativos de comunicação criptografada como WhatsApp ou Signal e, com razão, esperam não serem submetidas a verificações de identidade obrigatórias, filtragem arbitrária e vigilância. Especialmente as crianças abusadas precisam de canais privados e seguros para reportar o que aconteceu com elas. O projeto de lei pretende proteger crianças, mas desrespeita sua privacidade e ignora princípios internacionalmente reconhecidos sobre os direitos das crianças.
No entanto, o Parlamento não se preocupou com isso. Pior ainda, o Reino Unido não está sozinho: como o público não apoia a ideia de que a polícia escaneie toda mensagem digital, legisladores em outras democracias liberais também optam por soluções alternativas, alegando que backdoors na criptografia são necessários para investigar arquivos dos piores crimes. Eles falsamente afirmaram que certos métodos de verificação de arquivos e mensagens de usuários, como a varredura no lado do cliente, não quebram a criptografia de forma alguma.
As autoridades também tentaram – e, graças a Deus, falharam – pressionar a Apple a implementar um sistema de scanners de software em todos os dispositivos, que constantemente buscasse por imagens de abuso infantil e relatasse às autoridades.
Para administrar os cidadãos, os estados realizam vigilância, ou seja, a coleta e armazenamento sistemáticos de
dados pessoais “para proteger, entender, fornecer, controlar, administrar ou
influenciar indivíduos ou grupos”. Através de seus sistemas de auxílio social e de aplicação da lei
o estado coleta informações extensas sobre a população e identifica grupos marginalizados.
Como vimos no caso Epstein, tráfico de crianças e abuso infantil puderam ser geridos e concentrados em personalidades de destaque ao longo dos anos, envolvendo até mesmo políticos, fazendo com que estas contas se relacionem mais com a noção foucaultiana de um único inspetor central e onisciente, ao invés de uma “assembleia supervisora” que conceitualiza a integração de informações entre sistemas. Neste conceito, as capacidades modernas de armazenamento e fusão de dados juntam sistemas anteriormente separados, resultando em uma vigilância cada vez mais fluida e abrangente.
Não há meio-termo, nenhum “backdoor seguro” se a internet deve permanecer livre e privada. Pode ser que já seja tarde para parar esses desenvolvimentos. O combate ao CSAM é um empreendimento complicado e nuançado, com muito em jogo para crianças ao redor do mundo, e ainda é incerto quanto impulso obterão as grandes empresas de tecnologia que apostam em intervenções proativas. Mas os gigantes da tecnologia estão caminhando uma linha tênue ao equilibrar a detecção de CSAM e a privacidade dos usuários.
A importância de prevenir e combater o abuso infantil não deve ser usada como pretexto para introduzir programas de vigilância em massa. Os estados devem encontrar soluções em que as informações pessoais, a comunicação e os dispositivos dos cidadãos permaneçam privados, mas como a experiência nos mostra repetidamente que não podemos confiar nos governos nesse assunto, há PRVCY World desde o início.