Limite penal

O Manto de Invisibilidade do uso da Inteligência Artificial no Processo Penal

Autor

7 de janeiro de 2022, 8h30

Spacca
As discussões sobre a utilização de Modelos de Inteligência Artificial estão focadas na produção de decisões judiciais em matéria penal, ou seja, no debate sobre as (im)possibilidades de modelos de apoio à decisão penal. O Conselho Nacional da Justiça (CNJ), editou as Resoluções 332/2020 e 363/2021 e a Portaria 271/2020, regulamentando a pesquisa, o desenvolvimento e a implementação de Modelos nos Tribunais (confira a publicação do Prof. Fabiano Hartmann Peixoto sobre os "Referenciais Básicos" aqui), apontando que, embora não proibida no domínio Penal, "não deve ser estimulada, sobretudo com relação à sugestão de modelos de decisões preditivas" (Resolução 332/2020, art. 23 com as ressalvas dos parágrafos1).

O tema é complexo e o escopo deste pequeno artigo, produzido no contexto de pesquisa maior, realizada no âmbito da Universidade de Brasília (UnB), é o de chamar a atenção para uma questão relevante e pouco problematizada: o "uso" de prova adquirida por "Modelos de Inteligência Artificial" implementados pelos Órgãos de Investigação e de Controle, em desconformidade com as normas de transparência, produção, tratamento de dados e auditabilidade.

A pergunta é: Até que ponto é válido o "uso de prova", especialmente documental, produzida por Modelos de Inteligência Artificial dos Órgãos Estatais (Polícias, UIF, Controladorias, Tribunais de Contas, Ministério Público etc.) em desconformidade com a normativa do Conselho Nacional da Justiça e da LGPD?

A questão pode parecer ingênua ou até mesmo irrelevante, afinal de contas não se trata de Órgãos submetidos ao controle e regulamentação do CNJ. Mesmo que o argumento seja válido, o fato objetivo é que o "produto" dos Modelos de Inteligência Artificial dos Órgãos Estatais pode "embarcar" nos Processos Penais com violação das normas estabelecidas para o uso "dentro" do Poder Judiciário.

O paradoxo se estabelece quando "internamente" são vedadas diversas práticas, ao mesmo tempo em que a "ausência de controle efetivo" sobre o "modo" de aquisição, processamento e tratamento dos Dados e Informações materializados em "provas judiciais" acaba por "legitimar" o comportamento oportunista e abusivo, em que os "Modelos" estão cobertos, como diz Juliana Bierrenbach, por uma espécie de "Manto da Invisibilidade", sem meios de controle e, na imensa maioria dos casos, sequer com a informação de sua utilização. A prova é produzida do "nada", como se fosse resultado de alguma diligência analógica ou de simples "expertise" dos Agentes Públicos. Longe de pretender proibir o uso de Modelos de Inteligência Artificial pelos Órgãos Estatais, até porque sou adepto e entusiasta do tema2, a questão é de "accountability", "transparência", "dever de informação", “auditabilidade” e de "controle". Da mesma forma, escritórios privados podem estar se valendo de Modelos de Inteligência Artificial invisíveis, situação que abordarei em novos textos.

No momento, para suportar a resposta, então, vale a pena apresentar a normativa do CNJ.

A Resolução 332, do Conselho Nacional da Justiça define, no art. 3º, II, que "Modelo de Inteligência Artificial" “é o "conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana".

Segue-se que, conforme o art. 1º da Resolução, que: "O conhecimento associado à Inteligência Artificial e a sua implementação estarão à disposição da Justiça, no sentido de promover e aprofundar maior compreensão entre a lei e o agir humano, entre a liberdade e as instituições judiciais". Em seguida especifica, no art. 2º, que: "A Inteligência Artificial, no âmbito do Poder Judiciário, visa promover o bem-estar dos jurisdicionados e a prestação equitativa da jurisdição, bem como descobrir métodos e práticas que possibilitem a consecução desses objetivos".

Nesse sentido, dispõe o art. 6º: "Quando o desenvolvimento e treinamento de modelos de Inteligência exigir a utilização de dados, as amostras devem ser representativas e observar as cautelas necessárias quanto aos dados pessoais sensíveis e ao segredo de justiça". E a manipulação e processamento dos dados deve respeitar os "dados sensíveis", em conformidade com a Lei Geral de Proteção de Dados (Lei 13.709/2018), nos moldes da Res. 363/2021-CNJ.

Aliás, a LGPD ressalva, em seu art. 4º, que "Esta Lei não se aplica ao tratamento de dados pessoais: […] III – realizado para fins exclusivos de: a) segurança pública; b) defesa nacional: c) segurança do Estado; ou d) atividades de investigação e repressão de infrações penais". A exclusão da incidência está condicionada à edição de Lei Específica, na forma do § 1º do art. 4º: "O tratamento de dados pessoais previsto no inciso III será regido por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos nesta Lei". Ausente a legislação, diante da dicção "será regido", a conclusão lógica é a de que as limitações da LGPD prevalecem até o momento em que forem estabelecidas as regras de exceção, sob pena de legitimarmos o "espaço digital sem lei" exclusivamente para os órgãos de repressão, segurança pública e defesa nacional, cujo potencial de violações é ainda mais amplo. Logo, até a edição da legislação respectiva, as atividades devem observar a LGPD e não o contrário3.

Por isso, aplicam-se as seguintes normas protetivas:

"Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios: I – finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades; II – adequação: compatibilidade do tratamento com as finalidades informadas ao titular, de acordo com o contexto do tratamento; III – necessidade: limitação do tratamento ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento de dados; IV – livre acesso: garantia, aos titulares, de consulta facilitada e gratuita sobre a forma e a duração do tratamento, bem como sobre a integralidade de seus dados pessoais; V – qualidade dos dados: garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de acordo com a necessidade e para o cumprimento da finalidade de seu tratamento; VI – transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial; VII – segurança: utilização de medidas técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou difusão; VIII – prevenção: adoção de medidas para prevenir a ocorrência de danos em virtude do tratamento de dados pessoais; IX – não discriminação: impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos; X – responsabilização e prestação de contas: demonstração, pelo agente, da adoção de medidas eficazes e capazes de comprovar a observância e o cumprimento das normas de proteção de dados pessoais e, inclusive, da eficácia dessas medidas".

Retomando aos termos da Resolução 332/2020, sobre "Publicidade e Transparência", determina:

"Art. 8º Para os efeitos da presente Resolução, transparência consiste em: I – divulgação responsável, considerando a sensibilidade própria dos dados judiciais; II – indicação dos objetivos e resultados pretendidos pelo uso do modelo de Inteligência Artificial; III – documentação dos riscos identificados e indicação dos instrumentos de segurança da informação e controle para seu enfrentamento; IV – possibilidade de identificação do motivo em caso de dano causado pela ferramenta de Inteligência Artificial; V – apresentação dos mecanismos de auditoria e certificação de boas práticas; VI – fornecimento de explicação satisfatória e passível de auditoria por autoridade humana quanto a qualquer proposta de decisão apresentada pelo modelo de Inteligência Artificial, especialmente quando essa for de natureza judicial”.

A preocupação com a qualidade dos dados se verifica no art. 13, preservação e proteção estão presentes nos arts. 14, 15 e 16. Ademais, o resultado do uso de Modelos deve ser informado aos usuários (Res. 332/2020, art. 18: "Os usuários externos devem ser informados, em linguagem clara e precisa, quanto à utilização de sistema inteligente nos serviços que lhes forem prestados”), indicando, ainda, a "explicação dos passos que conduziram ao resultado", além de "permitir a supervisão do magistrado competente". (Res. 332/2020, art. 19 e Parágrafo único).

Assim é que sem a demonstração da validade, auditabilidade, transparência e mecanismos de controle, as práticas submetem os “violadores” às punições cabíveis (art. 26). O art. 25 da Res. 332/2020 também condiciona a utilização de modelos de AI à garantia de efetiva transparência na prestação de contas, englobando, nos termos do Parágrafo único: “I – os nomes dos responsáveis pela execução das ações e pela prestação de contas; II – os custos envolvidos na pesquisa, desenvolvimento, implantação, comunicação e treinamento; III – a existência de ações de colaboração e cooperação entre os agentes do setor público ou desses com a iniciativa privada ou a sociedade civil; IV – os resultados pretendidos e os que foram efetivamente alcançados; V – a demonstração de efetiva publicidade quanto à natureza do serviço oferecido, técnicas utilizadas, desempenho do sistema e riscos de erros”.

Em face do exposto, se o uso de Modelos de Inteligência Artificial, diante dos riscos inerentes, é objeto de restrições, especialmente quanto ao uso de Modelos de “Reconhecimento Facial” que, segundo o § 2º, do art. 21, da Res. 332;2020, “exigirão prévia autorização do Conselho Nacional de Justiça para implementação”, a juntada de provas obtidas por meio de Modelos de Inteligência Artificial, dentre elas as “prisões” decorrentes do “Reconhecimento Facial” pela Polícia em espaços públicos ou por aplicativos de “reconhecimento de rostos”, relatórios de Unidades de Inteligência4, de Controladorias, Unidades Fiscais ou de cruzamento de dados, em que não se especificam os meios e modelos utilizados, padecem de validade jurídica, por inobservância da normativa de controle e/ou da “Cadeia de Custódia”.

Se o "contraditório significativo"5 pressupõe a observância da "Cadeia de Custódia"6, isto é, a possibilidade de participação da defesa do acusado sobre a origem, existência, validade e eficácia da prova, a subtração da informação do “uso” de Modelos de Inteligência Artificial pelos Órgãos Estatais impede o exercício do direito de transparência, controle e conformidade dos dados e informações "embalados" em documentos e/ou perícias, com violação do Devido Processo Legal. Por isso, a extensão das exigências estabelecidas pelo CNJ mostra-se adequada a todos os documentos e perícias adquiridas durante a Investigação e/ou o Processo, sob pena de se criar um dualismo incoerente. Enquanto “internamente” exigem-se diversas limitações ao uso de Modelos de IA, aceita-se, sem maiores discussões, a prova produzida “externamente”, ainda que desprovida de mecanismos de controle, transparência e auditabilidade. Os rastros de produção são escondidos sob uma espécie de "Manto da Invisibilidade".

Assim é que no campo do Processo Penal a proibição impede a implementação de Modelos de Inteligência Artificial’ internamente”, mas “consome” provas que servem para condenar acusados, desde que “embarcadas” por Órgãos Estatais, sem as conformidades de obtenção, produção e auditabilidade. O primeiro passo é o de determinar e reconhecer a existência da prática, com a consequente elaboração de regramento de controle, transparência e auditabilidade. Por enquanto, o paradoxo é o de que o Judiciário não pode produzir Modelos de IA na esfera penal por ser muito arriscado, mas consome os produtos de Modelos de IA escondidos ou dissimulados sob o “Manto da Invisibilidade Digital”. Em resumo, o Judiciário não pode produzir, mas “usa”, sem maiores questionamentos, “provas” decorrentes de Modelos de Inteligência Artificial na esfera penal. Passou do momento de enfrentar as práticas opacas que produzem condenações injustas, por violação das condições mínimas do estabelecimento do “contraditório significativo” e, por consequência, do Devido Processo Legal.

 

 

 

1 § 1º Não se aplica o disposto no caput quando se tratar de utilização de soluções computacionais destinadas à automação e ao oferecimento de subsídios destinados ao cálculo de penas, prescrição, verificação de reincidência, mapeamentos, classificações e triagem dos autos para fins de gerenciamento de acervo.

§ 2º Os modelos de Inteligência Artificial destinados à verificação de reincidência penal não devem indicar conclusão mais prejudicial ao réu do que aquela a que o magistrado chegaria sem sua utilização.

 

2 BOEING, Daniel Henrique Arruda; MORAIS DA ROSA, Alexandre. Ensinando um robô a julgar. Florianópolis: EMais, 2020; MENDES, Alexandre José; MORAIS DA ROSA, Alexandre.; ROSA. Izaias Otacílio da; Testando a Methodology Multicriteria Decision Aid – Constructivist (MCDA-C) na construção de algoritmos de apoio à estabilidade das decisões judiciais. Revista Brasileira de Direito. v.15, n. 2. 2019.

3 MORAIS DA ROSA, Alexandre. Guia do Processo Penal Estratégico. Florianópolis: EMais, 2021.

4 VIEIRA, Luis Guilherme; MORAIS DA ROSA, Alexandre. O veto ao uso das agências de inteligência e a nulidade das investigações decorrentes: o problema da cadeia de custódia e das provas ilícita e/ou ilegítima. In: André Nicolitt; Yuri Felix. (Org.). O STF e a Constituição: estudos em homenagem ao Ministro Celso de Mello. 1ed.Belo Horizonte: D'Plácido, 2020, v. 1, p. 415-430.

5 NUNES, Dierle; BAHIA, Alexandre; PEDRON, Flávio Quinaud. Teoria Geral do Processo. Salvador: JusPodivm, 2021.

6 PRADO, Geraldo. Prova Penal e Sistemas de Controles Epistêmicos: a quebra da cadeia de custódia das provas obtidas por métodos ocultos. São Paulo: Marcial Pons, 2014; MATIDA, Janaina; BADARÓ, Caio. Exame da cadeia de custódia é prejudicial a todas as decisões sobre fatos; Consultor Jurídico aqui

Autores

Tags:

Encontrou um erro? Avise nossa equipe!