Vigiar e punir

Ainda sem regulação, estados prendem centenas de pessoas utilizando reconhecimento facial

Autor

17 de maio de 2024, 8h27

Um levantamento feito pela revista eletrônica Consultor Jurídico nas secretarias estaduais de Segurança mostra que quatro estados brasileiros já prenderam mais de 1,7 mil pessoas utilizando o reconhecimento facial, ainda que não exista uma regulamentação para esse mecanismo. Outros estados informam que usam o sistema, mas não dizem quantas pessoas prenderam usando a tecnologia, e há algumas unidades da federação que ainda estudam a implementação das câmeras para fins policiais.

A Bahia é responsável por 90% desse número: 1.547 pessoas foram presas com o uso do sistema desde 2019, quando o estado implementou as câmeras com reconhecimento facial durante o Carnaval.

Câmeras com tecnologia de reconhecimento facial foram utilizadas para prender mais de 1,7 mil no Brasil

Somente outros quatro estados informaram a quantidade de pessoas presas com o uso da biometria. Em São Paulo, a Secretaria de Segurança Pública informa que utiliza o reconhecimento em uma ação conjunta com o Estádio Allianz Parque em eventos que envolvem grande número de pessoas.

Segundo a pasta, 52 procurados pela Justiça foram detidos graças à tecnologia, que também identificou 56 indivíduos que descumpriram medidas judiciais, cinco proibidos de frequentar os estádios e 12 pessoas que utilizaram documentos falsos.

O Rio de Janeiro se limitou a informar que usa a tecnologia desde a última virada de ano e que mais de 130 pessoas já foram detidas. A Secretaria de Segurança de Roraima informou que experimentou o sistema de reconhecimento em festas juninas e na Feira-Exposição Agropecuária de 2023, e que 15 pessoas foram detidas. O estado tem licitação aberta para a compra de câmeras com biometria e deve implementar seu uso de forma definitiva.

Já a Secretaria de Segurança de Sergipe, estado que fez duas prisões equivocadas utilizando o reconhecimento facial (leia mais abaixo), informou que já fez oito detenções utilizando a tecnologia. A pasta excluiu dos seus dados os casos das detenções incorretas.

Esses estados, no entanto, não informam quantas das pessoas detidas com o uso do reconhecimento facial permanecem presas, nem citam taxas de erros da tecnologia, que têm se tornado muito frequentes, principalmente em prejuízo de pessoas pretas e pardas.

Sem detalhes

Outros estados admitem que usam a tecnologia, mas não detalham o número de prisões ou afirmam que não é possível aferir esse dado. O Acre diz que usa o sistema Apolo desde junho de 2022, mas não revela quantas pessoas foram presas por meio dele. A secretaria de Segurança do Maranhão também se limitou a informar que já usa as câmeras com biometria para fins policiais.

No Pará, são 113 câmeras operando com sistema de reconhecimento facial, mas a Secretaria de Segurança afirma que não há como mensurar o número de prisões. Em Minas Gerais, foi feito um teste no Carnaval deste ano, e o sistema foi “bem avaliado”. No entanto, não houve prisões.

Parte das unidades da federação consultadas diz que está implementando ou em vias de implementar sistemas semelhantes. No Tocantins, há a previsão de instalação de uma tecnologia “atestada pelo FBI” que vai custar R$ 16 milhões ao estado, que pagará a conta usando repasses federais. Situação semelhante é a do Espírito Santo, de Mato Grosso e de Goiás, que estão estudando como adotar o sistema para fins policiais.

Santa Catarina, Paraná, Mato Grosso do Sul, Piauí, Rio Grande do Norte e o Distrito Federal informaram que não utilizam o reconhecimento facial para fins de segurança. Já Paraíba, Pernambuco, Amazonas e Amapá não responderam as perguntas da ConJur.

A Secretaria de Segurança do Rio Grande do Sul também nada informou sobre o uso da tecnologia, mas os pedidos foram feitos em meio à tragédia ambiental que assola o estado por causa das mudanças climáticas.

Gastos e garantias

Uma das instituições que observam de perto o avanço dessa tecnologia é o projeto O Panóptico, do Centro de Estudos de Segurança e Cidadania (Cesec). Segundo os dados mais recentes coletados por seus pesquisadores, há atualmente 74 milhões de brasileiros aptos à vigilância por reconhecimento facial e mais de 200 projetos municipais ativos (a maioria vinculada a policiamento e educação) no país que tratam do tema, instalados com investimentos milionários.

Os dados colhidos pelo O Panóptico mostram que as informações das secretarias estaduais não são suficientes para compreender o contexto brasileiro. Goiás, por exemplo, afirma que estuda o uso de reconhecimento para fins de segurança pública. O mesmo estado, no entanto, registra 65 projetos municipais ativos que utilizam a tecnologia de biometria facial para alguma finalidade.

O Panóptico já registrou mais de 200 projetos municipais com biometria facial para fins de segurança pública

A cidade de Aparecida de Goiânia, que tem cerca de 600 mil habitantes, por exemplo, gastou R$ 55 milhões em centenas de câmeras com reconhecimento facial que são controladas pela Guarda Municipal.

Nos outros estados a situação é semelhante. Em Guarujá (SP), há licitação aberta de R$ 5 milhões para a aquisição de câmeras com a tecnologia; em Indaiatuba (SP), foi gasto R$ 1,5 milhão para câmeras utilizadas pela Guarda Civil; em Maricá (RJ), foram gastos mais de R$ 11 milhões no mesmo sentido. E há centenas de outros casos como esses, segundo os dados de O Panóptico.

O que é visto como temerário nesse contexto é a falta de uma legislação específica sobre o tema, ou seja, os estados têm investido em tecnologias que não têm amparo legal. Além disso, a capilaridade da ferramenta e a quantidade de erros que as câmeras cometem, em especial contra pessoas pretas e pardas, preocupam Pablo Nunes, cientista político e coordenador do projeto.

“Boa parte das equipes que desenvolveram e continuam desenvolvendo essas tecnologias é composta majoritariamente por homens brancos. Também há vieses embutidos nos próprios bancos de dados utilizados para o treinamento (das máquinas). Isso faz com que o algoritmo entenda que um rosto de um homem branco é um rosto padrão, e tudo o que foge desse padrão acaba não sendo compreendido como humano.”

O algoritmo, diz Nunes, erra mais contra pessoas pretas e pardas, com estudos apresentando índices maiores de equívoco em locais em que a tecnologia já tem maior alcance, como os Estados Unidos. “Aqui no Brasil temos a utilização do banco nacional de mandados de prisões, que majoritariamente é composto por pessoas negras, o que potencializa o risco. A gente tem um algoritmo enviesado e também um banco de dados que também tem um viés produzido pela forma na qual a Justiça Criminal se estrutura no Brasil.”

“Essa tecnologia, pelo seu potencial discriminatório, já mostra um elemento de inconstitucionalidade”, afirma o advogado Pedro Diogo, coordenador de vigilância do Laboratório de Políticas Públicas e Internet (Lapin), que defende que a ferramenta fere a presunção de inocência. “Enquanto a gente não tiver uma Lei Geral de Proteção de Dados (LGPD) voltada para a área de segurança pública, esses sistemas que fazem tratamento massivo de dados não poderiam ser utilizados pelas autoridades policiais.”

Casos notórios

Alguns casos notórios ilustram o racismo algorítmico citado por Nunes e Diogo. Em abril deste ano, um homem foi preso na final do Campeonato Sergipano de futebol, em Aracaju, e levado para uma sala para interrogatório por ter sido apontado pelas câmeras como fugitivo da Justiça. Depois do constrangimento, os policiais reconheceram que prenderam a pessoa errada. Caso semelhante já havia ocorrido no estado na festa conhecida como Pré-Caju. O governador Fábio Mitidieri (PSD) suspendeu a tecnologia após os erros.

Já houve casos de equívocos em outros estados, como o de um jovem negro morador do Complexo do Alemão, na cidade do Rio de Janeiro, detido por meio do sistema também em abril. O jornal A Voz das Comunidades registrou o erro policial.

Cecília Cunha, advogada do escritório Demarest especializada em cibersegurança, diz que os projetos de lei que tratam do tema citam decisões automatizadas (cumprimentos automáticos de mandados de prisão em aberto após identificação facial, por exemplo) consideradas preocupantes do ponto de vista do ordenamento brasileiro.

Em um projeto de lei que regulamenta o tratamento de dados, proposto pelo deputado Coronel Armando (PL), há a proibição de decisões automatizadas em desfavor jurídico do titular; já no PL 2.338, do presidente do Senado, Rodrigo Pacheco (PSD), há o “direito à explicação e à intervenção humana”.

“Esses sistemas vêm para auxiliar a tomada de decisão, mas a máquina não pode ter a última palavra. Por isso esses projetos de lei citam o direito de revisão humana. A decisão final não pode ser do sistema em si. Sempre precisa ter uma pessoa para poder ratificar isso”, diz Cecília.

Regulação e LGPD

O número de prisões e a possibilidade de que outros estados tomem o mesmo rumo da Bahia, com suas mais de 1,5 mil pessoas presas com o auxílio da ferramenta tecnológica, jogam luz sobre a falta de regulamentação própria do mecanismo. Há uma série de discussões sobre a legalidade da aplicação desse instrumento, em especial sobre o tratamento de dados das pessoas, cuja regulamentação foi feita pela Lei Geral de Proteção de Dados.

Aprovada em 2018, a LGPD prevê em seu artigo 4º a criação de uma lei complementar para regular o uso dessas informações para fins de segurança pública, mas, nesse período, não houve avanço dos projetos.

“A preocupação é usar essa tecnologia com a proteção e a preocupação de cumprir as garantias que a lei exige. Se é bom ou ruim vai depender de como se usa. O uso vai ser bom se você tiver garantido ao indivíduo que os direitos fundamentais dele e o cumprimento da legislação estão sendo aplicados”, diz Tatiana Campello, sócia do Demarest.

A validade da norma tem exceções em relação ao tratamento de dados pessoais para aplicação em segurança pública, como investigação e repressão de crimes, conforme disposto em seu artigo 4º.

“A LGPD tem uma previsão específica em relação à não aplicação dela quando se trata do tratamento de dados pessoais exclusivamente para fins de segurança. Hoje, realmente a gente não tem uma regulação específica para tratamento de dados biométricos, especificamente em relação ao uso de reconhecimento facial”, diz a advogada do Demarest Yuri Nabeshima, especializada em proteção de dados e pesquisadora do Legal Grounds Institute.

A lei que vai regulamentar o uso de dados biométricos para fins policiais deve “prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal e os princípios gerais de proteção e os direitos do titular previstos nela”, afirma o advogado Rony Vainzof, sócio-fundador do VLK Advogados

Segundo ele, essa lei complementar, que não foi editada ainda, deve seguir princípios como a “impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos” e a “garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento”.

Só com previsão em lei

Segundo o projeto de autoria de Rodrigo Pacheco, exemplifica o advogado, “somente será permitido o uso de sistemas de identificação biométrica a distância, de forma contínua em espaços acessíveis ao público, quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de persecução penal individualizada, nos casos de persecução de crimes passíveis de pena máxima de reclusão superior a dois anos, busca de vítimas de crimes ou de desaparecidas ou em flagrante delito”.

Vainzof faz um paralelo com a situação da União Europeia, que proibiu a identificação biométrica a distância em tempo real para fins criminais em espaços acessíveis ao público. No entanto, há exceções, como em casos de terrorismo, tráfico de pessoas e exploração sexual de menores.

“O nosso projeto de lei que está mais avançado hoje foi muito inspirado no IA Act, o regulamento europeu, e é mais pautado no risco. Via de regra, (por esse projeto) você precisa de uma avaliação preliminar para tudo. Ou seja, ao invés de falar do tipo de sistema, o projeto fala no que esse sistema pode acarretar”, diz Cecília Cunha. “E há uma justificativa clara para isso, que é não tropicalizar uma lei que foi aprovada com anos e anos de estudo. O melhor caminho é seguir (com a regulamentação), e não barrar. Ter uma regulação específica para tratamento de dados biométricos, levando em consideração a aplicação da LGPD, atrelada a questões subjetivas sobre o impacto que isso pode causar. Esse talvez seja o caminho.”

Clique aqui para ler o posicionamento de cada estado

Autores

Encontrou um erro? Avise nossa equipe!