O afronta começou quando ela ainda era um bebê. Um parente a molestou, tirou fotografias e enviou online as imagens para outras pessoas. Ele permitiu que outro varão passasse tempo com ela, multiplicando o afronta.
Quase todos os dias, a mulher, agora com 27 anos e que mora na região Nordeste dos EUA, volta a ser lembrada desse afronta ao ser alertada pelas autoridades de que alguém foi criminado de possuir essas imagens.
Uma dessas notificações, que ela recebeu no final de 2021, dizia que as fotografias haviam sido encontradas no MacBook de um varão em Vermont. Posteriormente, o legisperito da vítima confirmou com as autoridades que as imagens também haviam sido armazenadas no iCloud da Apple.
O aviso chegou meses depois de a Apple ter revelado uma instrumento que permitia escanear imagens ilegais de afronta sexual. Mas rapidamente abandonou esse recurso posteriormente ser criticada por especialistas em cibersegurança, que disseram que poderia perfurar caminho para outros pedidos de vigilância governamental.
Agora, a mulher, usando um pseudônimo, está processando a Apple afirmando que a empresa quebrou sua promessa de proteger vítimas porquê ela. Segundo o processo, a big tech deixou de usar as ferramentas que criou para identificar, remover e relatar imagens de seu afronta, permitindo que esse material proliferasse, forçando as vítimas de afronta sexual infantil a reviver o traumatismo que moldou suas vidas.
A ação judicial foi apresentada no sábado (7) no Tribunal Distrital dos EUA no Setentrião da Califórnia. Afirma que as falhas da Apple significam que ela tem vendido produtos defeituosos que prejudicaram clientes que foram vítimas de afronta sexual infantil, porque brevemente introduziu “um serviço amplamente divulgado para proteger crianças”, mas “falhou em implementá-los ou tomar quaisquer medidas para detectar e limitar” o material de afronta sexual infantil.
O processo procura mudar as práticas da Apple e indemnizar um grupo que pode chegar a 2.680 vítimas que são elegíveis para fazer secção do caso, disse James Marsh, um dos advogados envolvidos.
Por lei, as vítimas de afronta sexual infantil têm recta a um mínimo de US$ 150 milénio (R$ 907,66 milénio) em danos, o que significa que o valor totalidade pode ultrapassar US$ 1,2 bilhão (R$ 7,26 bilhões) se um júri considerar a Apple culpada.
“NÃO É SÓ VOCÊ”
O New York Times concedeu anonimato à mulher de 27 anos que está processando a Apple para que ela pudesse narrar sua história. Ela falou anonimamente porque as pessoas são conhecidas por procurar vítimas e buscar seu material de afronta sexual infantil na internet.
O afronta que ela sofreu começou pouco depois de ela nascer. Um adulto da família realizava atos sexuais com ela e os fotografava. Ele foi recluso posteriormente entrar em uma sala de bate-papo e oferecer uma troca de fotos da moça com outros homens. Ele foi recluso e considerado culpado de vários crimes.
O que ela conseguia lembrar do afronta vinha em fragmentos. Uma noite, enquanto sua mãe assistia a um incidente da série “Law & Order: Special Victims Unit” sobre afronta sexual infantil, a história parecia estranhamente familiar. Ela gritou e assustou sua mãe, que percebeu que ela pensava que o incidente era sobre ela.
“Não é só você”, ouviu da mãe. “Há milhares de outras crianças.”
À medida que suas imagens eram encontradas online, as autoridades notificavam sua mãe. Elas comumente receberam dezenas de notificações diariamente por mais de uma dezena. O que mais a incomodava era saber que pedófilos compartilhavam algumas de suas fotos com crianças para regularizar o afronta, um processo chamado “grooming”.
“Era difícil confiar que havia tantos por aí”, disse a vítima. “Eles não paravam”.
A internet potencializou a disseminação de material de afronta sexual infantil. Imagens físicas que antes eram difíceis de encontrar e compartilhar tornaram-se fotos e vídeos digitais que poderiam ser armazenados em computadores e servidores e compartilhados facilmente.
SISTEMA CRIADO PARA CONTER PROPAGAÇÃO
Em 2009, a Microsoft trabalhou com Hany Farid, atual professor na Universidade de Berkeley, na Califórnia, para fabricar um sistema de software para reconhecer fotos, mesmo alteradas, e compará-las com um banco de dados de imagens ilegais conhecidas. O sistema, chamado PhotoDNA, foi adotado por várias empresas de tecnologia, incluindo Google e Facebook.
A Apple recusou-se a usar o PhotoDNA ou fazer escaneamento em larga graduação porquê seus pares. A indústria de tecnologia relatou 36 milhões de relatórios de fotos e vídeos ao Núcleo Vernáculo para Crianças Desaparecidas e Exploradas, o meio federalista para material suspeito de afronta sexual. Google e Facebook apresentaram mais de 1 milhão de relatórios cada, enquanto a Apple fez exclusivamente 267.
Em 2019, uma investigação do New York Times expôs que as empresas de tecnologia falharam em sustar o material condenável. Um gráfico de barras publicado pelo jornal detalhando as práticas de relatórios das empresas públicas levou Eric Friedman, um executivo da Apple responsável pela proteção contra fraudes, a enviar uma mensagem a um colega sênior dizendo que achava que a empresa poderia estar subnotificando material de afronta sexual infantil.
“Somos a maior plataforma para distribuição de pornografia infantil”, avaliou Friedman na troca de mensagens em 2020. Ele disse que isso era causado pela Apple dar prioridade à privacidade sobre crédito e segurança.
Um ano depois, a Apple anunciou um sistema para escanear afronta sexual infantil. Disse que seus iPhones armazenariam um banco de dados de assinaturas digitais distintas, conhecidas porquê hashes, associadas a material de afronta sexual infantil identificado por grupos porquê o Núcleo Vernáculo para Crianças Desaparecidas e Exploradas.
A companhia disse que compararia essas assinaturas digitais com fotos no serviço de armazenamento iCloud de um usuário. A técnica, que chamou de NeuralHash, sinalizaria correspondências e as encaminharia para o meio federalista de material suspeito de afronta sexual.
Mas depois que especialistas em cibersegurança alertaram que isso criaria uma exórdio para iPhones que poderia dar entrada a governos, a empresa abandonou seu projecto. Disse que era quase impossível escanear fotos do iCloud sem “comprometer a segurança e a privacidade de nossos usuários.”
No início deste ano, Sarah Gardner, fundadora de um grupo de resguardo infantil chamado Heat Initiative, começou a procurar escritórios de advocacia com experiência em simbolizar vítimas de afronta sexual infantil.
Em março, a equipe do grupo de resguardo perguntou ao Marsh Law, um escritório de 17 anos que se concentra em simbolizar vítimas de afronta sexual infantil, se poderia entrar com um processo contra a Apple. O Heat ofereceu-se para fornecer US$ 75 milénio para concordar o que poderia ser uma ação de litígio dispendioso. Foi uma estratégia emprestada de outras campanhas de resguardo contra empresas.
Margaret Mabie, sócia do Marsh Law, assumiu o caso. O escritório representou milhares de vítimas de afronta sexual infantil.
Mabie vasculhou relatórios das autoridades e outros documentos para encontrar casos relacionados às imagens de seus clientes e aos produtos da Apple, eventualmente construindo uma lista de mais de 80 exemplos, incluindo a de um varão da Bay Area que as autoridades encontraram com mais de 2.000 imagens e vídeos ilegais no iCloud.
FALSAS ESPERANÇAS ÀS VÍTIMAS
A mulher de 27 anos ouvida pela reportagem é representada pelo Marsh e concordou em processar a Apple porque acredita que a Apple deu falsas esperanças às vítimas de afronta sexual infantil ao introduzir e desistir seu sistema NeuralHash. Usuária de iPhone, ela afirmou que a empresa escolheu privacidade e lucro em vez de pessoas.
O processo é o segundo do tipo contra a Apple, mas seu escopo e impacto financeiro potencial poderiam forçar a empresa a um processo de litígio de anos sobre uma questão que tentou deixar para trás. E aponta para a crescente preocupação de que a privacidade do iCloud da Apple permite que material ilícito circule sem ser tão facilmente detectado porquê seria em serviços de mídia social porquê o Facebook.
Por anos, a Apple relatou menos material condenável do que seus pares, capturando e relatando uma pequena fração do que é encontrado pelo Google e Facebook. Defendeu sua prática dizendo que está protegendo a privacidade do usuário, mas grupos de segurança infantil a criticaram por não fazer mais para parar a disseminação desse material.
O caso é o exemplo mais recente de uma estratégia lítico emergente contra empresas de tecnologia. Por décadas, a Seção 230 da Lei de Respeitabilidade nas Comunicações protegeu as big techs de responsabilidade lítico pelo que os usuários postam em suas plataformas. Mas decisões recentes do Tribunal de Apelações dos EUA determinaram que essas proteções podem ser aplicadas exclusivamente à moderação de teor e não fornecem proteção de responsabilidade abrangente.
As decisões aumentaram a esperança entre os advogados dos autores dos processos de que as empresas de tecnologia poderiam ser desafiadas no tribunal. Em agosto, uma moça de 9 anos processou a Apple na Carolina do Setentrião depois que estranhos enviaram vídeos de afronta sexual infantil através de links do iCloud e a encorajaram a filmar e encaminhar seus próprios vídeos nus.
A Apple entrou com uma moção para rejeitar o caso da Carolina do Setentrião, dizendo que a Seção 230 a protege de responsabilidade pelo material postado no iCloud por outra pessoa. Também argumentou que o iCloud não poderia ser sujeito a uma reclamação de responsabilidade do resultado porque não era um resultado, porquê um pneu falho.
“O material de afronta sexual infantil é ominoso e estamos comprometidos em combater as maneiras porquê os predadores colocam as crianças em risco. Estamos urgentemente e ativamente inovando para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários”, disse o porta-voz da Apple, Fred Sainz.
O porta-voz elencou ferramentas de segurança que a empresa introduziu para sustar a disseminação de imagens ilegais recém-criadas, incluindo recursos em seu aplicativo de mensagens que alertam crianças sobre teor de nudez e permitem que as pessoas relatem material prejudicial à Apple.
Riana Pfefferkorn, advogada e pesquisadora de políticas no Instituto de Lucidez Sintético Centrada no Humano de Stanford, afirmou que há obstáculos significativos para qualquer processo sobre as políticas da Apple em relação ao material de afronta sexual infantil.
Ela reiterou que uma vitória para os demandantes poderia transpor pela culatra porque poderia levantar questões sobre se o governo está forçando a Apple a escanear material ilícito em violação da Quarta Emenda da Constituição dos EUA.