Riscos das tecnologias de reconhecimento facial: estudo alerta


Reconhecimento Facial no Brasil: Vigilância Digital em Ascensão

Sorria! Seu rosto está sendo não só filmado, mas também classificado, comparado e identificado, principalmente por órgãos públicos de segurança e, na maioria das vezes, sem seu conhecimento. É o que mostra pesquisa da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), instituição acadêmica vinculada à Universidade Candido Mendes, no Rio de Janeiro.

Divulgado nesta quarta-feira (7), o relatório Mapeando a Vigilância Biométrica aponta que, após sediar a Copa do Mundo, em 2014, o Brasil se tornou um vasto campo de vigilância digital onde as chamadas tecnologias de Reconhecimento Facial (TRFs) encontraram solo fértil para se espalhar. Graças, em parte, à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.

Expansão das Tecnologias de Reconhecimento Facial

“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, sustentam os autores do documento, referindo-se às sofisticadas e caras câmeras de reconhecimento facial, cada vez mais presentes na paisagem urbana.

Segundo os pesquisadores, em abril deste ano havia, no Brasil, ao menos 376 projetos de reconhecimento facial ativos. Juntos, esses empreendimentos têm o potencial de vigiar quase 83 milhões de pessoas, o equivalente a cerca de 40% da população brasileira. E já movimentaram ao menos R$ 160 milhões em investimentos públicos – valor calculado a partir das informações que 23 das 27 unidades federativas forneceram aos responsáveis pelo estudo – não responderam à pesquisa, feita entre julho e dezembro de 2024, o Amazonas, Maranhão, a Paraíba e Sergipe.

“A despeito de todo esse cenário, as soluções regulatórias estão atrasadas”, sustentam os pesquisadores da DPU e do CESeC, assegurando que o Brasil ainda não tem leis para disciplinar o uso dos sistemas de vigilância digital, em particular das câmeras de reconhecimento facial. Além disso, para os especialistas, faltam mecanismos de controle externo, padrões técnico-operacionais uniformes e transparência na implementação dos sistemas. O que amplia as chances de ocorrerem erros graves, violações de privacidade, discriminação e mau uso de recursos públicos.

Erros e Falhas nos Sistemas de Reconhecimento Facial

Em outro levantamento, o CESeC mapeou 24 casos ocorridos entre 2019 e abril de 2025, nos quais afirma ter identificado falhas dos sistemas de reconhecimento facial. O mais conhecido deles é o do personal trainer João Antônio Trindade Bastos, de 23 anos.

Em abril de 2024, policiais militares retiraram Bastos da arquibancada do Estádio Lourival Batista, em Aracaju (SE), durante a partida final do Campeonato Sergipano. Eles conduziram o rapaz até uma sala, onde o revistaram de forma ríspida. Só após checarem toda a documentação de Bastos, que teve que responder a várias perguntas para comprovar que era quem ele dizia ser, os PMs revelaram que o sistema de reconhecimento facial implantado no estádio o tinha confundido com um foragido.

Indignado, Bastos usou as redes sociais para fazer um desabafo contra a injustiça sofrida. A repercussão do caso levou o governo de Sergipe a suspender o uso da tecnologia pela PM – que, segundo notícias da época, já a tinha usado para deter mais de dez pessoas.

Bastos é negro. Como a maioria das pessoas identificadas pelos sistemas de vigilância e reconhecimento facial, no Brasil e em outros países – de acordo com o relatório da DPU e do CESeC, há indicadores de que 70% das forças policiais do mundo têm acesso a algum tipo de TRF e que 60% dos países têm reconhecimento facial em aeroportos. No Brasil, “mais da metade das abordagens policiais motivadas por reconhecimento facial resultaram em identificações equivocadas, evidenciando o risco de prisões indevidas”.

“As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando pesquisas internacionais segundo as quais, em alguns casos, as taxas de erros dos sistemas são “desproporcionalmente elevadas para determinados grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação com indivíduos brancos”.

O Parlamento Europeu emitiu um alerta em 2021 sobre as imprecisões técnicas dos sistemas de Inteligência Artificial (IA) destinados à identificação biométrica a distância de pessoas singulares, destacando que tais falhas podem resultar em resultados distorcidos e ter efeitos discriminatórios.

Em relação à legislação brasileira, os pesquisadores da Defensoria Pública da União (DPU) e do Centro de Estudos de Segurança e Cidadania (CESeC) abordaram os desafios institucionais e normativos. Em dezembro de 2024, o Senado aprovou o Projeto de Lei n.º 2338/2023, que propõe regular o uso de inteligência artificial, incluindo sistemas biométricos na segurança pública. Para se tornar lei, a proposta ainda precisa ser aprovada pela Câmara dos Deputados, que recentemente criou uma comissão especial para debater o tema.

Entretanto, os pesquisadores apontam que o PL, apesar de proibir o uso de sistemas de identificação biométrica a distância e em tempo real em espaços públicos, possui tantas exceções que, na prática, acaba autorizando amplamente a implementação desses sistemas. Isso pode resultar em um estado de vigilância e violação de direitos, considerando o histórico de abusos e a falta de mecanismos eficazes de controle.

Diante desse cenário, os especialistas defendem a necessidade de um debate público qualificado, com a participação ativa da sociedade civil, acadêmicos e representantes de órgãos públicos e internacionais. Além disso, recomendam medidas urgentes, como a aprovação de uma lei nacional específica para regular o uso da tecnologia, a padronização de protocolos que respeitem o devido processo legal e a realização de auditorias independentes e regulares.

Outras sugestões incluem a transparência dos contratos e bases de dados utilizados, o acesso claro às informações sobre os sistemas de reconhecimento facial, a capacitação dos agentes públicos envolvidos e a necessidade de autorização judicial prévia para o uso de informações obtidas com a tecnologia de reconhecimento facial em investigações. Além disso, apontam a importância da limitação temporal para armazenamento de dados biométricos e o controle mais rigoroso sobre empresas privadas que operam esses sistemas.

O coordenador-geral do CESeC, Pablo Nunes, ressalta a importância dessas recomendações para orientar a tramitação do PL 2338 na Câmara dos Deputados e alertar os órgãos reguladores e de controle no Brasil. O relatório destaca os vieses raciais no uso da tecnologia, os problemas de mau uso de recursos públicos e a falta de transparência na implementação dos sistemas de reconhecimento facial.

Em suma, a regulamentação do uso de inteligência artificial e sistemas biométricos na segurança pública é um tema crucial que requer atenção e ação imediata por parte das autoridades e da sociedade. A transparência, o controle e o respeito aos direitos individuais são fundamentais para garantir o uso ético e responsável dessas tecnologias em benefício da sociedade como um todo.

Já segue o macuxi nas redes sociais? Acompanhe todas as notícias em nosso Instagram, Twitter, Facebook, Telegram e também no Tiktok