Opinião

Identificação criminal por tecnologia de reconhecimento e a discriminação racial

Autores

28 de agosto de 2019, 13h20

Atualmente, tecnologias que antes pareciam existir somente em ficções científicas, tornam-se realidade e passam a ser incorporadas em nosso cotidiano. Um exemplo que tem se tornado usual e acessível é o reconhecimento facial, sendo empregado tanto em nossos celulares e outros meios mais triviais quanto pelos Governos para melhorar suas atuações preventivas.

Recentemente, o município de Praia Grande, no litoral de São Paulo, anunciou a implementação de um sistema de reconhecimento facial que irá alimentar o sistema de monitoramento, formado por aproximadamente 2.600 câmeras e 200 quilômetros de cabos de fibra óptica, cujo objetivo é identificar pessoas procuradas pela Justiça.

Outras cidades pelo estado possuem projetos parecidos em avançada fase de implementação, como a cidade de Campinas, que possui parceria com a polêmica gigante chinesa Huawei, atuando como um living lab para a empresa [1].

Em suma, a tecnologia funciona com a submissão de imagens a algoritmos computacionais a fim de identificar dezenas de pontos únicos na face de cada pessoa; desse modo, quando alguém passar por uma câmera, os algoritmos buscarão, em uma velocidade sobre-humana, os mesmos pontos faciais contidos em cada imagem salva no banco de dados. Por óbvio, a complexidade dos algoritmos varia de acordo com cada software de reconhecimento facial, através de extenso uso de inteligência artificial, automação, machine learning, big data, entre outros conceitos.

No caso do município de Praia Grande, o software de reconhecimento facial utilizado pela Prefeitura será alimentado, de início, com o banco de dados da Polícia Civil da própria cidade, mas já é prevista a expansão ao banco de dados de todo o estado de São Paulo. Com isso, tem-se o primeiro problema na utilização do sistema proposto: a identificação criminal, em especial a fotográfica que não é tida como regra pela nossa legislação, mas exceção.

A Constituição Federal garante o direito fundamental de o civilmente identificado não ser submetido à identificação criminal (artigo 5º, LVIII), salvo poucas exceções previstas na Lei nº 12.037/2009. Em outras palavras, apresentando documento de identidade oficial válido, o acusado não é obrigado a registrar seus dados biométricos, sejam eles datiloscópicos (impressões digitais) ou faciais (com fotografias ou outros registros visuais).

Entretanto, sabe-se que a realidade no cotidiano das delegacias não é essa, havendo diariamente a obtenção de dados biométricos faciais de acusados que, ainda que devam ser somente identificados civilmente, são submetidos a esse constrangimento por estarem desacompanhados de seus defensores.

Outro problema de ordem prática se faz presente: ainda que o artigo 3º, §1º, inciso XII da Resolução CNJ nº 137/2011, que regulamenta o Banco Nacional de Mandados de Prisão (BNMP) preveja a possibilidade de inclusão de fotografia da pessoa objeto de ordem de prisão, tal procedimento é facultativo e pouco utilizado.

É certo, assim, que o banco de dados de fotografias de pessoas procuradas pela justiça é escasso e, muitas vezes, ilícito.

Como alternativa para contornar esses problemas, há a possibilidade de criação de um cadastro obrigatório de imagens de pessoas indiciadas e acusadas, o que se mostra de constitucionalidade duvidosa ante o princípio da não autoincriminação. Lembre-se que o Supremo Tribunal Federal julgará Recurso Extraordinário com repercussão geral reconhecida de tema similar, que trata do cadastro obrigatório de dados do perfil genético (DNA) para condenados por crimes hediondos (RE nº 973.837/MG).

De outra sorte, a justificativa para utilização da tecnologia reside no combate à criminalidade, cujos índices no município de Praia Grande vem reduzindo a cada ano com a implementação de câmeras e recursos tecnológicos integrados. Nessa esteira, a Carta Magna institui a segurança como direito fundamental inviolável do ser humano (artigo 5º, caput) e direito social de todos (artigo 6º), sendo que a garantia e manutenção da segurança pública é dever do Estado, direito e responsabilidade de todos, devendo ser exercida à preservação da ordem pública e da incolumidade das pessoas e do patrimônio.

Especificamente, a Secretaria de Segurança Pública municipal alega redução no número de homicídios, roubos e furtos, crimes cujos bens jurídicos tutelados são amparados pela Constituição Federal na qualidade de direitos fundamentais invioláveis. Não à toa, a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) não se aplica quando o tratamento de dados pessoais for realizado para fins exclusivos de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais (artigo 4º, inciso III, alíneas “a” a “d”).

Além do embate e sopesamento de cláusulas pétreas, outra questão que merece atenção diz respeito ao potencial discriminatório na identificação das pessoas por meio de algoritmos. De início, esse potencial exsurge da própria natureza da tecnologia que busca dezenas de pontos únicos na face, além de percepção de cores, luminosidade, contraste, profundidade, entre outras características a depender da complexidade do software e da qualidade das câmeras e do hardware no geral – é aí que entra a possibilidade da tecnologia, com capacidade de percepção inferior ao do olho humano, em reconhecer de maneira inadequada indivíduos com tom de pele mais escuro; um problema existente desde os primórdios da fotografia [2].

Porém, o problema vai além: em um sistema de automação, a máquina responderá de acordo com os dados que lhe são alimentados e os comandos pré-estabelecidos pelo seu programador. É o caso da cidade de Ferguson, no estado do Missouri, Estados Unidos. Apesar dos afro-americanos corresponderem à 67% da população do município, 85% das paradas de trânsito efetuadas pela polícia de Ferguson se procederam – propositalmente – sobre cidadãos negros, e 91% dessas paradas resultaram em algum tipo de citação [3]. Quando o sistema físico é racista, o digital há de lhe refletir e seguir o mesmo caminho.

Já no caso de um sistema de inteligência artificial propriamente dito, no qual a máquina irá aprender e tomar decisões com o propósito de aprimorar e desenvolver suas próprias funções, o cenário passa a ser ainda mais preocupante, a depender da capacidade de interação e do espectro de aprendizagem do software. Por exemplo, em 2016 a Microsoft criou uma robô virtual para interagir nas redes sociais e se parecer com uma típica adolescente americana – o objetivo era justamente ver até onde a máquina poderia aprender com seres humanos. Apenas no Twitter, a robô publicou 96 mil tweets durante as 24 horas em que ficou ativa. Mesmo a robô tendo passado por uma curadoria prévia dos desenvolvedores, muitas dessas mensagens destilaram ódio, foram nitidamente racistas e, pasmem, fizeram apologia ao nazismo [4]; um reflexo ao conteúdo a qual foi exposta. Ao passo em que a máquina aprende com seres humanos, mas não é dotada de concepções éticas e morais, os resultados podem ser inesperados e até assustadores.

Verifica-se, portanto, que tecnologia de reconhecimento facial no combate e prevenção à criminalidade é uma realidade, mas, apesar de seus nobres motivos, está longe de ser o meio ideal em razão de suas atuais limitações. Devem, assim, os entes federados (União, Estados, Municípios e Distrito Federal) estar atentos à adequação de seus sistemas aos direitos fundamentais, às regras processuais-penais e, quando cabível, à recente – e recorrente – legislação que regula o uso da tecnologia e dados por empresas privadas e pela Administração Pública.


[1] HUAWEI. Campinas reforça parceria com a Huawei para implementar soluções de segurança. Disponível em: <www.huawei.com/br/press-events/news/br/2018/dezembro/campinas-reforca-parceria-com-a-huawei>. Acesso em: 21 ago 2019.

[2] LEWIS, Sarah. The Racial Bias Built Into Photography. The New York TimesDisponível em: <www.nytimes.com/2019/04/25/lens/sarah-lewis-racial-bias-photography.html>. Acesso em: 21 ago. 2019.

[3] EHRENFREUND, Max. 17 disturbing statistics from the federal report on Ferguson police. The Washington Post. Disponível em: <www.washingtonpost.com/news/wonk/wp/2015/03/04/17-disturbing-statistics-from-the-federal-report-on-ferguson-police/?noredirect=on>. Acesso em: 20 ago 2019.

[4] MOREIRA Isabela. A Microsoft criou uma robô que interage nas redes sociais – e ela virou nazista. Revista Galileu. Disponível em: <revistagalileu.globo.com/blogs/buzz/noticia/2016/03/microsoft-criou-uma-robo-que-interage-nas-redes-sociais-e-ela-virou-nazista.html>. Acesso em: 20 ago 2019.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!