Imagens de vítimas de abuso proliferam na internet

Empresas de tecnologia dispõem das ferramentas técnicas para impedir que imagens de abusos voltem a circular, mas não fazem pleno uso delas

PUBLICIDADE

Por Michael H. Keller e Gabriel J.X. Dance
Atualização:

Dez anos atrás, o pai delas fez o impensável: publicou na internet fotos e vídeos delas, que na época tinham sete e 11 anos. Boa parte desse material registrava abusos violentos no lar da família no Meio-Oeste americano, incluindo e outro homem dopando e estuprando a menina de sete anos.

PUBLICIDADE

Os homens estão na prisão, mas seus crimes encontram novo público. Somente esse ano, fotos e vídeos das irmãs foram encontrados em mais de 130 investigações de abuso sexual infantil envolvendo celulares, computadores e contas de armazenamento na nuvem. O rastro digital do abuso - frequentemente armazenado em serviços como Google Drive, Dropbox e Microsoft OneDrive - assombra as irmãs implacavelmente, de acordo com elas, bem como o temor de serem reconhecidas por causa das imagens.

“É algo que está na minha cabeça o tempo todo - sabendo que essas imagens circulam por aí", disse E., a irmã mais velha, que será identificada apenas pela inicial do nome. “Por causa da forma de funcionamento da internet, isso não é algo que cairá no esquecimento.” Experiências horríveis como a delas voltam a circular na internet porque os mecanismos de busca, redes sociais e serviços de armazenamento na nuvem estão repletos de oportunidades que os criminosos podem explorar.

Nos anos mais recentes, a indústria da tecnologia tem sido mais rigorosa na identificação de material contendo abuso sexual infantil, com um volume recorde de 45 milhões de fotos e vídeos denunciados no ano passado. Mas essa mesma indústria foi incapaz de adotar medidas agressivas para acabar com esse conteúdo, de acordo com investigação do New York Times. As empresas dispõem das ferramentas técnicas para impedir que imagens de abusos voltem a circular, mas não fazem pleno uso delas.

A Amazon, cujos serviços de armazenamento na nuvem recebem milhões de transferências por segundo, nem se dá o trabalho de procurar essas imagens. De acordo com autoridades federais, a Apple não analisa o conteúdo armazenado no seu serviço de nuvem, e seu aplicativo de mensagens é criptografado, tornando a detecção virtualmente impossível. Os produtos de Dropbox, Google e Microsoft voltados ao consumidor vasculham o material armazenado em busca de imagens ilegais, mas somente quando um usuário as compartilha, e não no momento do carregamento.

E outras empresas, como Snapchat e Yahoo, procuram fotos ilegais, mas não vídeos (indagada a respeito da ferramenta de análise de vídeos, uma porta-voz do Dropbox disse em julho que essa não era “uma prioridade” da empresa; no dia 7 de novembro, a empresa disse que começou a analisar alguns vídeos no mês passado).

Maior rede social do mundo, o Facebook analisa o conteúdo que circula nas suas plataformas, sendo responsável por mais de 90% das imagens denunciadas no ano passado, mas a empresa não usa todos os bancos de dados disponíveis para detectar o material. E o Facebook anunciou que a principal fonte das imagens, o Facebook Messenger, receberá recursos de criptografia, o que limitará muito a detecção de imagens ilegais.

Publicidade

“Cada empresa está criando seu próprio equilíbrio entre privacidade e segurança, e não querem que isso seja feito diante do público", disse Alex Stamos, que atuou como diretor de informação no Facebook e na Yahoo. “São decisões que acabam trazendo um impacto imenso para a segurança das crianças.” O principal método de detecção de imagens ilegais foi criado em 2009 pela Microsoft e por Hany Farid, atualmente professor da Universidade da Califórnia, em Berkeley. 

O software, conhecido como PhotoDNA, pode usar computadores para reconhecer fotos, mesmo que tenham sido alteradas, e compará-las a bancos de dados de imagens ilegais já conhecidas. Mas essa técnica tem alcance limitado porque não existe uma lista única de material ilegal conhecido. Mesmo que houvesse uma lista única, isso não resolveria o problema das novas imagens, nem o surto de abusos transmitidos ao vivo.

Para vítimas como E. e a irmã F., o trauma da circulação constante de fotos e vídeos do passado pode ter efeitos devastadores. A mãe disse que as irmãs já foram hospitalizadas por causa de tendências suicidas. E como os criminosos online são conhecidos por buscar contato com crianças vítimas de abuso, as irmãs não falam em público. “Nossa voz é tirada de nós", disse E. “Por causa dessas imagens, nunca posso falar em meu nome. Sempre tenho que me apresentar como 'Joana da Silva'.”

Um rastro digital de imagens de abuso sexual assombra vítimas como essas irmãs. Foto: Kholood Eid para The New York Times

Procurando imagens de abuso

CONTiNUA APÓS PUBLICIDADE

O técnico de computadores Joshua Gonzalez, do Texas, foi detido esse ano com mais de 400 imagens de abuso sexual infantil no seu computador, entre elas imagens de E. e da irmã. Gonzalez disse ter usado a ferramenta de pesquisas da Microsoft, Bing, para encontrar algumas das fotos e vídeos ilegais, de acordo com documentos do tribunal.

O Times criou um programa de computador que vasculhou automaticamente o Bing e outros mecanismos de busca. O script automatizado encontrou imagens - dezenas delas - que o serviço PhotoDNA, da própria Microsoft, denunciou como sendo de conteúdo ilegal. O Bing chegou até a recomendar outros termos de busca quando um conhecido site de abuso sexual infantil foi inserido na caixa de pesquisa. Os pedófilos também usaram o recurso de “busca reversa de imagens” do site, que exibe imagens com base em uma amostra.

Depois de analisar os resultados obtidos pelo Times, a Microsoft disse ter identificado uma falha no seu sistema de varredura, e os resultados de busca seriam reexaminados. Mas novas tentativas de uso do programa identificaram ainda mais material. Quando usado pelo Times no mecanismo de busca do Google, o programa do Times não mostrou conteúdo abusivo. Mas documentação apresentada pelo Centro Canadense de Proteção à Criança mostrou que imagens de abuso sexual infantil também foram encontradas por meio do Google e, às vezes, a empresa resistia ao pedidos de remoção desse conteúdo.

Publicidade

Uma imagem mostrava parte do corpo de duas crianças obrigadas a praticar atos explícitos uma com a outra. É parte de uma conhecida série de fotos documentando o abuso dessas crianças. Em agosto, o centro canadense pediu ao Google que retirasse a imagem de circulação, mas a empresa disse que esse conteúdo não se enquadrava nas suas diretrizes de remoção, de acordo com os documentos. No fim, o Google acabou cedendo aos apelos.

Outra imagem, encontrada em setembro de 2018, mostra uma mulher tocando a genitália de uma menina nua de dois anos. O Google se recusou a apagar a imagem, dizendo em e-mail endereçado aos analistas canadenses que, embora a imagem retratasse pedofilia, “ela não é ilegal nos Estados Unidos". Posteriormente, a empresa reconheceu o erro. Quando o Times indagou ao Google a respeito da imagem em questão e outras identificadas pelos canadenses, um porta-voz reconheceu que elas deveriam ser removidas, e de fato foram. 

Em alta
Loading...Loading...
Loading...Loading...
Loading...Loading...

Uma semana após a remoção das imagens, o centro canadense denunciou duas outras fotos. O Google respondeu ao centro canadense que nenhuma das imagens se enquadrava nas “diretrizes de denúncia", mas, posteriormente, concordou em removê-las. “É muito frustrante", disse Lianna McDonald, diretora executiva do centro.

Criminosos por toda parte

O problema não se limita aos mecanismos de busca. Com frequência, os pedófilos recorrem a diferentes tecnologias e plataformas, reunindo-se em aplicativos de mensagens e compartilhando conteúdos em serviços de armazenamento na nuvem. “A primeira coisa que as pessoas precisam entender é que qualquer sistema permitindo o compartilhamento de imagens e vídeos está completamente infestado de abuso sexual infantil", disse Stamos. Muitas vezes, criminosos debatem em fóruns e grupos de bate-papo a melhor forma de explorar as vulnerabilidades das plataformas, de acordo com os casos julgados nos tribunais.

O rastro digital que persegue uma jovem vítima de abuso é representativo desse padrão. A menina, atualmente uma adolescente vivendo na Costa Oeste dos EUA, não sabe que há na internet vídeos do abuso que sofreu. A mãe e o padrasto queriam que essa situação perdurasse. “Para ela, a internet serve para pesquisar filhotinhos", disse o padrasto.

Os abusadores costumam compartilhar fotos e vídeos de meninas sendo abusadas em sites que aparecem no Bing e em outras ferramentas. Quando as imagens são detectadas, o FBI notifica a família da vítima ou seu advogado. De acordo com a família dela, nos quatro anos mais recentes, eles receberam mais de 350 notificações envolvendo casos ocorridos em todo o território dos EUA.

Publicidade

Quando completar 18 anos, a menina se tornará a destinatária das notificações policiais. A mãe e o padrasto esperam que, quando esse dia chegar, ela estará melhor preparada para receber a notícia. Esperam também que as empresas de tecnologia tenham aprimorado seus recursos de remoção dessas imagens até lá. “Adoraria poder dizer a ela que o material esteve na internet, mas já foi apagado", disse a mãe dela.

‘Imagens são eternas’

“É muito frustrante", disse Lianna McDonald, defensora dos direitos da criança, a respeito dos critério de remoção de imagens do Google. Foto: Kholood Eid para The New York Times

No lar adotivo de uma família que abriga diferentes vítimas de abuso, duas das filhas adotivas foram filmadas enquanto eram estupradas pelo pai, enquanto outras sofreram abusos, mas não foram fotografadas nem filmadas. De acordo com a mãe adotiva, a diferença pode ser grande com o passar do tempo.

“Elas ficam furiosas pensando que as imagens são eternas", disse ela. “Duvido que um dia sejam apagadas de vez.” A resposta da indústria ao conteúdo em vídeo é ainda mais precária. Não existe uma técnica padrão para identificar conteúdo ilegal em vídeo, e muitas das principais plataformas - incluindo AOL, Snapchat e Yahoo - não fazem nenhum esforço nesse sentido. AOL e Yahoo não responderam aos pedidos de comentário para a reportagem. Um porta-voz do Snapchat disse que a empresa estava desenvolvendo uma solução.

Faz anos que as empresas de tecnologia sabem que vídeos de crianças sendo abusadas sexualmente são compartilhados nas suas plataformas, de acordo com ex-funcionários da Microsoft, Twitter, Tumblr e outras empresas. Em 2013, menos de 50 mil vídeos foram denunciados. No ano passado, empresas encaminharam mais de 22 milhões de vídeos ao Centro Nacional para Crianças Abusadas ou Desaparecidas, uma organização americana sem fins lucrativos.

Em 2017, a indústria da tecnologia aprovou um processo para facilitar a detecção de material ilícito pelas empresas, de acordo com e-mails confidenciais e outros documentos que fizeram parte de um projeto organizado pela Technology Coalition, grupo voltado para questões de segurança infantil que inclui a maioria das maiores empresas. Um documento sublinha a justificativa para o projeto: “O vídeo se tornou tão fácil de produzir quanto as imagens, e nenhum processo ou solução padrão foi adotado pela indústria". Mas o plano não produziu resultados.

Futuro incerto

Publicidade

A inação por parte da indústria permitiu que incontáveis vídeos e imagens permaneçam na internet e possibilitou que o abuso prosperasse nas plataformas de transmissão ao vivo. Facebook, Google e Microsoft disseram estar no processo de desenvolver tecnologias capazes de encontrar novas fotos e vídeos nas suas plataformas, mas isso pode levar anos. Muitas empresas, entre elas a Amazon, citaram a privacidade do cliente como obstáculo para combater o abuso. Algumas, como Dropbox e Apple, também citaram preocupações de segurança quando indagadas a respeito de suas práticas.

Vários especialistas forenses em tecnologia digital e funcionários dos serviços de policiamento disseram que as empresas são hipócritas ao citar a segurança como preocupação. Stamos, ex-diretor de segurança do Facebook e da Yahoo, disse que as empresas só estão tentando “evitar um anúncio dizendo que estão abertas aos negócios” para os criminosos. “Quando dizem, ‘É um problema de segurança’, estão anunciando que não farão nada a respeito", disse ele. / TRADUÇÃO DE AUGUSTO CALIL

Comentários

Os comentários são exclusivos para assinantes do Estadão.