Opinião

Sobre inteligência artificial, reconhecimento facial e LGPD

Autores

  • Marina Ferraz de Miranda

    é advogada administradora de empresas mestre em Finanças e Desenvolvimento Econômico pela Universidade Federal de Santa Catarina (CPGA/UFSC) especialista em Compliance e Gestão de Riscos pela Faculdade Pólis Civitas Profissional de Compliance Público CPC-c pelo Centro de Estudos em Direito e Negócios (Cedin) auditora líder em Sistemas de Gestão Antissuborno (ABNT NBR ISO 37001:2017) presidente da Comissão de Conformidade e Compliance da OAB-SC e membro do Comitê de Segurança da Informação e Proteção de Dados do Tribunal de Contas do Estado de Santa Catarina e da Comissão de Integridade do Tribunal de Contas do Estado de Santa Catarina.

  • Tayná Tomaz de Souza

    é advogada pós-graduanda em Direito Digital e Proteção de Dados pela Escola Brasileira de Direito (Ebradi) certificada pela Exin em "Privacy and Data Protection Foundation (PDPF)" e "Information Security Foundation based on ISO/IEC 27001 (ISFS)" secretária adjunta da Comissão de Privacidade e Proteção de Dados da OAB/SC e membra consultiva da Comissão de Direito Digital da OAB-SC.

5 de maio de 2021, 17h06

Publicada em 1949, a distopia "1984", escrita por George Orwell, revela-nos um mundo verdadeiramente assustador, no qual o Big Brother se fazia onipresente, observando e controlando a tudo e a todos.

Nas palavras de Winston, personagem principal do livro, "você era obrigado a viver — e vivia, em decorrência do hábito transformado em instinto — acreditando que todo som que fizesse seria ouvido e, se a escuridão não fosse completa, todo movimento examinado meticulosamente".

Mais de 70 anos — e muito avanço tecnológico — depois, deparamo-nos com uma realidade não muito distante daquela descrita por Winston, uma vez que a combinação entre inteligência artificial e reconhecimento facial é empregada em larga escala nos mais diversos países.

E quais consequências a aplicação desse tipo de tecnologia pode desencadear?

Lançado recentemente, o documentário "Coded Bias" apontou questões bastante preocupantes relacionadas ao reconhecimento facial, principalmente por reforçar comportamentos discriminatórios e propiciar um perigoso controle social por meio da vigilância em massa.

No documentário, Joy Buolamwini, pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), uma mulher negra, percebeu que sistemas de reconhecimento facial bastante conhecidos não detectavam o seu rosto. Isso porque, em geral, os algoritmos detectam com mais facilidade rostos de homens brancos, motivo pelo qual Joy somente era facilmente identificada quando colocava uma máscara branca.

Outras experiências também foram abordadas, em uma delas, no Reino Unido, um menino negro de 14 anos foi detido pela polícia ao andar pela rua e, de forma vexatória, foi sujeito à revista e à coleta de suas digitais. O motivo da abordagem? O sistema de reconhecimento facial da polícia, erroneamente acusou-o como sendo alguém procurado pela polícia.

Inclusive, situação semelhante foi noticiada recentemente: um homem negro foi identificado como autor do furto em uma loja de produtos de luxo pelo sistema de reconhecimento facial utilizado pela polícia de Detroit (EUA), o que foi constatado como um erro após ele passar a noite preso e ser submetido a interrogatórios.

Diante das ocorrências listadas, faz-se oportuno registrar que o emprego da inteligência artificial não se limita à vigilância, como ressaltado pela pesquisadora do MIT, os mesmos algoritmos das mesmas big techs são utilizados para outras finalidades, como para obtenção de crédito, ingresso às faculdades, bem como processos de recrutamento e seleção.

Atenta aos mais recentes debates, a Comissão Europeia propôs o regulamento do uso de inteligência artificial, tendo como critério norteador o nível de risco propiciado por cada sistema; aqueles considerados de risco inaceitável [1] ficam proibidos, mas aqueles classificados como sendo de risco elevado podem ser aplicados, desde que observem a requisitos rigorosos [2]. Exemplo dessa última categoria seriam os sistemas de identificação biométrica à distância.

A proposta foi apoiada pelo European Data Protection Supervisor (EDPS), que, no entanto, lamentou que os seus pedidos anteriores de proibição temporária do uso de sistemas de identificação biométrica em áreas públicas, tais como o reconhecimento facial, não tenham sido avaliados.

No Brasil, o tema também ganhou destaque com o Projeto de Lei nº 865/2019 do estado de São Paulo, que torna obrigatória a instalação de câmeras de reconhecimento facial nas estações de metrô e no interior dos vagões, bem como com a recente polêmica em torno do uso de reconhecimento facial pela Central Única de Favelas (Cufa) para distribuição de alimentos.

Todos esses casos evidenciam que o problema não está na tecnologia em si, mas sim, na sua aplicação. Qual é a sua finalidade? De que forma o emprego da inteligência artificial com o reconhecimento facial impacta o cidadão? A sua utilização realmente é necessária?

Essas, assim como outras perguntas, precisam ser esclarecidas, e as suas respostas devem estar em consonância com a Constituição Federal (artigo 5º, inciso X) e com a legislação, nesse caso a Lei Geral de Proteção de Dados Pessoais (LGPD).

Segundo a LGPD, a liberdade, os direitos humanos, a dignidade e o exercício da cidadania constituem fundamentos da disciplina da proteção de dados (artigo 2º, incisos III e VII), assim como a não discriminação (artigo 6º, inciso IX) constitui um princípio a ser observado em qualquer tipo de tratamento, o que implica na impossibilidade de realizar qualquer tipo de operação com fins discriminatórios ilícitos ou abusivos.

Nessa lógica, a importância dos dados pessoais, ou melhor, a consciência da sua importância, revela-se inequívoca. O emprego massivo dos dados pessoais já é uma realidade há muito tempo, a preocupação com a proteção aos titulares desses dados (as pessoas naturais, e não as empresas ou o poder público) é que constitui uma novidade.

Sendo assim, torna-se insustentável limitar-se a afirmar que a razão para estar em conformidade com os ditames da LGPD se restringe às sanções administrativas ou à boa reputação. Todos nós, enquanto cidadãos da mesma sociedade, estamos sujeitos às (ou quase) mesmas circunstâncias que nos levam a um modelo no qual somos vigiados, medidos e classificados sem o conhecimento do porquê e nem para qual finalidade.

Daí a relevância de compreender, de uma vez por todas, que a disciplina da proteção de dados não é somente sobre mim ou sobre você, diz respeito a todos e, o mais importante, ao exercício dos seus respectivos direitos e liberdades.

 

Referências bibliográficas
BRASIL. Lei Federal nº 13.709, de 14/8/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm.> Acesso em 27/4/2021.

COMISSÃO EUROPEIA. Uma Europa preparada para a Era Digital: Comissão propõe novas regras e ações para promover a excelência e a confiança na inteligência artificial? Disponível em: <https://ec.europa.eu/commission/presscorner/detail/PT/ip_21_1682> Acesso em 27/4/2021.

EDPS. Artificial Intelligence Act: uma iniciativa bem-vinda, mas a proibição da identificação biométrica remota no espaço público é necessária. Disponível em: <https://edps.europa.eu/press-publications/press-news/press-releases/2021/artificial-intelligence-act-welcomed-initiative_en?utm_campaign=newsletter_-_28042021&utm_medium=email&utm_source=RD+Station> Acesso em 27/4/2021.

ESTADO DE SÃO PAULO. ASSEMBLEIA LEGISLATIVA. Projeto de Lei nº 865 /2019, que torna obrigatória a instalação de câmeras de reconhecimento facial em todas as estações do Metrô e da CPTM, bem como no interior dos vagões das composições. Disponível em: <https://www.al.sp.gov.br/propositura/?id=1000278098> Acesso em 28/4/2020.

FEITORA, Alessandro. Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica. Disponível em: <https://g1.globo.com/economia/tecnologia/noticia/2021/04/27/por-que-a-Cufa-interrompeu-o-uso-de-reconhecimento-facial-apos-polemica.ghtml?utm_campaign=newsletter_-_28042021&utm_medium=email&utm_source=RD+Station> Acesso em 28/4/2021.

MELO, João Ozorio de. Ação pede banimento da tecnologia de reconhecimento facial nos EUA. Disponível em: <https://www.conjur.com.br/2021-abr-26/acao-banimento-tecnologia-reconhecimento-facial-eua> Acesso em 27/4/2021.

ORWELL, George. 1984. São Paulo: Companhia das Letras, 2009. Tradução de Alexandre Hubner, Heloisa Jahnº p. 13.

 


[1] Os sistemas com riscos inaceitáveis são aqueles que "os sistemas de inteligência artificial são considerados uma clara ameaça à segurança, aos meios de subsistência e aos direitos das pessoas".

[2] A exemplo da exigência de documentação pormenorizada que forneça todas as informações necessárias sobre o sistema e o seu objetivo, para que as autoridades possam avaliar a sua conformidade, assim como informações claras e adequadas para o utilizador.

Autores

  • é advogada do Marina Miranda Assessoria e Consultoria Jurídica, graduada em Direito pelo Cesusc, administradora de empresas pela Udesc, mestre em Finanças e Desenvolvimento Econômico pela UFSC, especialista em Processo Civil (com ênfase no Novo CPC) pelo Cesusc e pós-graduada em Compliance e Gestão de Riscos: Ênfase em Governança e Inovação (Faculdade Polis Civitas).

  • é advogada do Marina Miranda Assessoria e Consultoria Jurídica, bacharela em Direito pela Universidade Federal de Santa Catarina (UFSC).

Tags:

Encontrou um erro? Avise nossa equipe!