Estudo aponta riscos de tecnologias de reconhecimento facial

Estudo aponta riscos de tecnologias de reconhecimento facial

Brasil

Sorria! Seu rosto está sendo não só filmado, mas também classificado, comparado e identificado, principalmente por órgãos públicos de segurança. Na maioria das vezes sem seu conhecimento. É o que mostra pesquisa da Defensoria Pública da União (DPU) em parceria com o Núcleo de Estudos de Segurança e Cidadania (CESeC), instituição acadêmica vinculada à Universidade Candido Mendes, no Rio de Janeiro. 

Divulgado nesta quarta-feira (7), o relatório Mapeando a Vigilância Biométrica aponta que, posteriormente sediar a Despensa do Mundo, em 2014, o Brasil se tornou um vasto campo de vigilância do dedo onde as chamadas tecnologias de Reconhecimento Facial (TRFs) encontraram solo fértil para se espalhar. Graças, em secção, à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas. 

“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – mormente a Despensa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, sustentam os defensores públicos federais da DPU e membros do CESeC, referindo-se às sofisticadas e caras câmeras de reconhecimento facial, cada vez mais presentes na paisagem urbana. 

Segundo os pesquisadores, em abril deste ano havia, no Brasil, ao menos 376 projetos de reconhecimento facial ativos. Juntos, esses empreendimentos têm o potencial de vigiar quase 83 milhões de pessoas, o equivalente sobre 40% da população brasileira. E já movimentaram ao menos R$ 160 milhões em investimentos públicos – valor calculado a partir das informações que 23 das 27 unidades federativas forneceram aos responsáveis pelo estudo – não responderam à pesquisa, feita entre julho e dezembro de 2024, o Amazonas, Maranhão, a Paraíba e Sergipe.

“A despeito de todo esse cenário, as soluções regulatórias estão atrasadas”, sustentam os pesquisadores da DPU  e do CESeC, assegurando que o Brasil ainda não tem leis para disciplinar o uso dos sistemas de vigilância do dedo, em pessoal das câmeras de reconhecimento facial.

Ou por outra, para os especialistas, faltam mecanismos de controle extrínseco, padrões técnico-operacionais uniformes e transparência na implementação dos sistemas. O que amplia as chances de ocorrerem erros graves, violações de privacidade, discriminação e mau uso de recursos públicos. 

Erros

Em outro levantamento, o CESeC mapeou 24 casos ocorridos entre 2019 e abril de 2025, nos quais afirma ter identificado falhas dos sistemas de reconhecimento facial. O mais espargido deles é o do personal trainer João Antônio Trindade Bastos, de 23 anos. 

Em abril de 2024, policiais militares retiraram Bastos da arquibancada do Estádio Lourival Batista, em Aracaju (SE), durante a partida final do Campeonato Sergipano. Eles conduziram o rapaz até uma sala, onde o revistaram de forma ríspida. Só posteriormente checarem toda a documentação de Bastos, que teve que responder a várias perguntas para justificar que era quem ele dizia ser, os PMs revelaram que o sistema de reconhecimento facial implantado no estádio o tinha confundido com um homiziado. 

Revoltado, Bastos usou as redes sociais para fazer um desabafo contra a injustiça sofrida. A repercussão do caso levou o governo de Sergipe a suspender o uso da tecnologia pela PM – que, segundo notícias da era, já a tinha usado para estancar mais de dez pessoas.

Bastos é preto. Uma vez que a maioria das pessoas identificadas pelos sistemas de vigilância e reconhecimento facial, no Brasil e em outros países – de combinação com o relatório da DPU e do CESeC, há indicadores de que 70% das forças policiais do mundo têm aproximação a qualquer tipo de TRF e que 60% dos países têm reconhecimento facial em aeroportos. No Brasil, “mais da metade das abordagens policiais motivadas por reconhecimento facial resultaram em identificações equivocadas, evidenciando o risco de prisões indevidas”.

“As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando pesquisas internacionais segundo as quais, em alguns casos, as taxas de erros dos sistemas são “desproporcionalmente elevadas para determinados grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em confrontação com indivíduos brancos”. Essa constatação motivou o Parlamento Europeu a, em 2021, alertar que “[as] imprecisões técnicas dos sistemas de Lucidez Sintético [IA], concebidos para a identificação biométrica a intervalo de pessoas singulares, podem conduzir a resultados enviesados e ter efeitos discriminatórios.”  

Legislação

Ao tratar dos “desafios institucionais e normativos”, os pesquisadores lembram que, em dezembro de 2024, o Senado aprovou o Projeto de Lei n.º 2338/2023, que procura regulamentar o uso de perceptibilidade sintético, incluindo sistemas biométricos na segurança pública. Para se tornar lei, a proposta terá que ser aprovada pela Câmara dos Deputados que, no mês pretérito, criou uma percentagem privativo para debater o tema.

Ou por outra, para os pesquisadores da DPU e do CESeC, embora o PL proponha a proibição do uso de sistemas de identificação biométrica a intervalo e em tempo real em espaços públicos, o texto ratificado pelo Senado prevê tantas exceções que, na prática, funciona “porquê uma autorização ampla para a implementação” desses sistemas. 

“As categorias de permissões [no texto aprovado] incluem investigações criminais, flagrante delito, procura por desaparecidos e recaptura de foragidos, situações que abrangem um espectro considerável de atividades da segurança pública. Considerando o histórico de abusos e a falta de mecanismos eficazes de controle, essa exórdio para uso acaba mantendo a possibilidade de um estado de vigilância e de violação de direitos.”

Recomendações

Os pesquisadores concluem defendendo a urgência de um “debate público qualificado”, com a participação ativa da sociedade social, membros da liceu e representantes de órgãos públicos de controle e de organismos internacionais. 

Eles também recomendam o que classificam porquê “medidas urgentes”, porquê a aprovação de uma lei pátrio específica para regulamentar o uso da tecnologia; a padronização de protocolos que respeitem o devido processo lícito e a realização de auditorias independentes e regulares. 

Os especialistas também apontam a premência de que os órgãos públicos deem mais transparência aos contratos e às bases de dados utilizados, garantindo o aproximação da população a informações claras sobre os sistemas de reconhecimento facial e capacitando os agentes públicos que lidam com o tema. E sugerem a obrigatoriedade de autorização judicial prévia para uso das informações obtidas com o uso das TRFs em investigações, muito porquê a limitação temporal para armazenamento de dados biométricos e o fortalecimento do controle sobre empresas privadas que operam esses sistemas.

“Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes.

Fonte EBC

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *