Opinião

Coded bias e a identificação biométrico-facial de pessoas no Brasil

Autores

15 de abril de 2021, 6h03

Em uma das passagens do recente e aclamado documentário "Coded bias", policiais londrinos realizam, de forma geralmente oculta, o reconhecimento pessoas por meio da captação de suas biometrias faciais. O documentário, que tem como eixo central a discussão acerca do impacto do crescente uso da inteligência artificial em governar as nossas liberdades, afirma que o direito à proteção de dados é um verdadeiro direito civil.

Não se duvida que sistemas de inteligência artificial podem contribuir em inúmeras atividades relacionadas à segurança pública. Recente estudo de um instituto de pesquisa dos Estados Unidos, o Carnegie Endowment for International Peace, constatou que pelo menos 75 países estão usando ativamente tecnologias de inteligência artificial para fins de vigilância e/ou segurança pública.

Nota-se que um número crescente de Estados está implantando ferramentas avançadas de vigilância de IA para monitorar, rastrear e vigiar os cidadãos. No contexto de IA em segurança pública, merecem destaque os sistemas de reconhecimento facial que têm sido utilizados em conjunto com sistemas de circuito fechado de televisão para identificar indivíduos foragidos ou comportamentos criminosos em locais públicos. Como principais usos dos sistemas de reconhecimento facial, destaca-se a detecção de pessoas desaparecidas e de pessoas procuradas pela justiça.

Diferentemente do reconhecimento por íris ou impressão digital, o reconhecimento facial é um método de identificação biométrica que opera mesmo sem o conhecimento da pessoa que tem o seu rosto analisado. O sistema permite fazer varreduras em massa de pessoas que passaram apenas segundos diante de uma câmera [1].

Contudo, a despeito da instrumentalidade dos SRFs, inúmeros estudos e pesquisas demonstram que a utilização de tais tecnologias trazem consigo problemas associados a viés e discriminação decorrentes. A falta de transparência, aliada à opacidade dos sistemas, não permite a correta avaliação, a eficácia e o uso adequado do reconhecimento facial.

Além disso, há alto número de falsos positivos, muitas vezes em razão de acidentes cognitivos provocados pelos vieses algoritmos, o que é motivo de sérias preocupações, pois tais erros podem provocar constrangimentos, prisões e detenções arbitrárias, trazendo consigo a inexorável violações de direitos fundamentais.

Somam-se a isso problemas relacionados a viés de gênero e de raça que têm sido constatados em diversos casos de uso de SRFs. O relatório do National Institute of Standards and Technology (NIST) sobre questões demográficas em face recognition concluiu que os falsos positivos são muito maiores na identificação de pessoas com traços africanos e asiáticos do que para traços europeus caucasianos. Outrossim, a proporção de falsos positivos em mulheres também foi maior do que em homens [2].

Além da problemática acima apontada, a questão que se coloca é discutir se, à luz do ordenamento jurídico brasileiro, o Estado está autorizado a instalar câmaras de reconhecimento facial biométrico nas ruas e demais espaços de convivência pública, na tentativa de identificar pessoas.

Pesquisa do Instituto Igarapé revelou que desde 2011 SRFs são utilizados no Brasil para diferentes finalidades, entre as quais se destaca o uso no contexto de segurança pública. Na cidade do Rio de Janeiro, por exemplo, entre os meses de julho e outubro de 2019 10% das prisões do 19º Batalhão da Polícia Militar foram decorrentes do SRF utilizado [3].

A preocupação é tamanha que foi recentemente instituída pela Portaria nº 4.617, de 6/4/2021, do Ministério da Ciência, Tecnologia e Inovações [4], a Estratégia Brasileira de Inteligência Artificial (BIA), que assume o papel de nortear as ações do Estado brasileiro em prol do desenvolvimento das ações, em suas várias vertentes, que estimulem a pesquisa, a inovação e o desenvolvimento de soluções em inteligência artificial, bem como o seu uso consciente, ético e em prol de um futuro melhor.

Por sua vez, a Lei nº 13.709 de 2018 (Lei Geral de Proteção de Dados LGPD) é clara ao estabelecer que ela não se aplica ao tratamento de dados pessoais realizado para fins exclusivos de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais (artigo 4º, inciso III, alíneas "a" a "d"). Logo, à luz da LGPD, não se vê proibição para tal atividade estatal.

Ocorre que o artigo 5º, inciso LVIII, da CRFB/88 prevê, como direito fundamental, que "o civilmente identificado não será submetido a identificação criminal", salvo nas hipóteses previstas em lei. A lei que regulamentou o referido dispositivo constitucional é a Lei nº 12.037 de 1/10/2009, que dispõe sobre a identificação criminal do civilmente identificado e dela se extrai que a biometria é uma forma de identificação criminal.

Tanto é assim que o seu artigo 7º-C, incluído pela Lei nº 13.964, de 2019, autorizou a criação, no Ministério da Justiça e Segurança Pública, do Banco Nacional Multibiométrico e de Impressões Digitais, que tem como objetivo armazenar dados de registros biométricos, de impressões digitais e, quando possível, de íris, face e voz, para subsidiar investigações criminais. Outrossim, o §4º do referido dispositivo prevê que "poderão ser colhidos os registros biométricos, de impressões digitais, de íris, face e voz dos presos provisórios ou definitivos quando não tiverem sido extraídos por ocasião da identificação criminal".

Portanto, já não bastassem os inúmeros problemas éticos, estatísticos e de ineficiência acima apontados, certo é que à luz dos referidos dispositivos legais, não há dúvidas de que a identificação biométrico-facial somente pode ser realizada quando não se puder realizar a identificação civil. Com isso, todo cidadão poderá, por exemplo, cobrir o rosto ao passar por uma dessas câmeras ou, até mesmo, requerer medidas proibitivas da ação abusiva do Estado.

 


[1] Disponível em: <https://igarape.org.br/videomonitoramento-webreport/> Acesso em 10/4/2021.

[2] GROTHER, Patrick; NGAN, Mei; HANAOKA, Kayee. Face Recognition Vendor Test – FRVT. Part 3: demographic effects. Washington: U.S. Department of Commerce and National Institute of Standards and Technology, 2009, pág. 2.

[4] DOU, seção 1, página 21, de 9/4/2021. Disponível em: <https://www.in.gov.br/en/web/dou/-/portaria-gm-n-4.617-de-6-de-abril-de-2021-312911562>.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!