Interesse Público

Ainda a regulação de inteligência artificial: o substitutivo ao PL 21/2020

Autor

  • Vanice Valle

    é professora da Universidade Federal de Goiás visiting fellow no Human Rights Program da Harvard Law School pós-doutora em administração pela Ebape-FGV doutora em Direito pela Universidade Gama Filho procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

15 de dezembro de 2022, 8h00

A comissão de juristas designada pela Presidência do Senado Federal entregou, no último dia 6 de dezembro, o relatório final de seus trabalhos, destinados a subsidiar a apresentação de substitutivo ao PL 21/2020, que tem por objeto a regulação de inteligência artificial.

Spacca
Inequivocamente o colegiado corrigiu uma disfuncionalidade já antes denunciada em texto anterior desta coluna — Regulação da inteligência artificial: o desafio de definir quem conforma valores —, eis que promoveu amplo debate por meio de audiências públicas e outras providências. O resultado dessa internalização dos inputs havidos neste diálogo determina uma proposta de substitutivo com importantes diferenças em relação ao modelo anterior.

A primeira delas, diz respeito à avocação para o plano da normatização estatal, de substantiva parcela da disciplina da produção e aplicação de mecanismos de IA. Assim, enquanto no PL 21/2020 se verificava uma clara opção pela autorregulação regulada [1], o substitutivo apresentado pela comissão de juristas disciplina extensamente direitos dos afetados por sistemas de inteligência artificial, assim como os deveres dos agentes de inteligência artificial, definidos como fornecedores e aplicadores destes mesmos sistemas de inteligência artificial (art. 4º, IV). Há ainda um vasto espaço para regulação estatal posterior, em temas como interface de programação viabilizadora de interoperabilidade (artigo 21, V); análise de impacto algorítmico (artigo 24, §§ 3º e 4º 25, § 1º), condições para sandbox regulatório (artigo 38 e 40), além de uma cláusula genérica de regulação procedimental (artigo 32 Parágrafo Único, VI).

Subsiste ainda espaço para a autorregulação pelos agente de inteligência artificial — todavia, esta é de se dar a título de Código de Boas Práticas e Governança (artigo 30). O único incentivo contemplado no substitutivo para a edição desse tipo de regulação particular é a aptidão para — eventualmente — ser tido como "indicativo de boa-fé por parte do agente e será levada em consideração pela autoridade competente para fins de aplicação de sanções administrativas" (artigo 30, § 3º). Na perspectiva da relação com o Estado, parece fraco o incentivo.

Esse vasto espectro de funções normativas estatais está confiado à "autoridade competente", definida no artigo 4º, V como "órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional". Tem-se com a previsão dessa estrutura institucional igualmente um avanço em relação ao PL 21/2020, que, não obstante apostasse numa arquitetura normativa fundada em princípios e diretrizes oponíveis aos agentes de inteligência artificial, não contemplava uma estrutura institucional responsável por promover o monitoramento da observância, pelo ecossistema de desenvolvedores e operadores de IA, dessa mesma regulação.

No campo da proteção a direitos dos afetados por sistemas de inteligência artificial, verifica-se uma clara inclinação defensiva; reflexo da explicitação de riscos sempre associados à utilização desse ferramental tecnológico. Não obstante, o texto revela uma certa hesitação entre o pendor garantista e a sempre presente preocupação em não se institucionalizar bloqueios indesejáveis ao desenvolvimento tecnológico e aos benefícios que as soluções de IA possam trazer.

Primeiro elemento curioso está em que o artigo 4º do substitutivo, que contempla as definições, não se ocupa de conceituar este sujeito da relação de uso de mecanismos de IA. Assim, o texto define o que seja o fornecedor (artigo 4º, II), o operador (artigo 4º, III) e os agentes de inteligência artificial (artigo 4º, IV); mas não enuncia o que sejam os "afetados por sistemas de inteligência artificial" — locução recorrente no substitutivo. Curiosamente, o artigo 12 da proposição, aludindo às medidas relacionadas à discriminação algorítmica, se vale de enunciação mais detalhada, referindo a "pessoas afetadas por decisões, previsões ou recomendações de sistemas de inteligência artificial". A distinção, embora sutil, possivelmente não restará imune a interpretações, caso se tenha a proposição efetivamente recebida como substitutivo, e aprovada em seus termos iniciais. Isso porque a referência a ser afetado por sistemas de inteligência artificial sugere uma ocorrência que contenha algum cariz decisório — o que pode reduzir o espectro de eventos alcançados pelo sistema de proteção que o substitutivo pretende institucionalizar. Já a locução empregada pelo artigo 12 inequivocamente alcança qualquer hipótese em que haja o concurso, ainda que como mero elemento de instrução, de sistema de IA.

Dois são os vetores privilegiados pelo sistema de garantias oferecido pelo substitutivo em favor dos afetados por IA: informação (artigo 5, I) e intervenção humana (artigo 5º, IV). Embora haja vários outros direitos enunciados na proposição legislativa, em última análise, todos eles se reportam a esses dois componentes essenciais.

No que toca à informação, a preocupação em explicitar e ampliar esse direito, na relação de eventuais afetados com os sistemas de inteligência artificial, é reflexo de um componente de há muito valorizado do sistema de proteção à pessoa, a saber, aquele à autodeterminação informacional. Afinal, já no precedente construído pela Corte Constitucional Alemã se assinalava a relevância de assegurar-se a controlabilidade da correção e utilização de sistemas automatizados que manejem dados pessoais [2].

É certo que nem todos os sistemas de IA operarão a partir da utilização de dados pessoais — mas o conceito de pessoa afetada envolve o reflexo na esfera individual de direitos, do uso de uma ferramenta automatizada, cujos pressupostos de operação não são conhecidos. A lógica, de um direito à justificação no que toca às mudanças na sua esfera individual de direitos subsiste.

O desafio, em especial em se cuidando de mecanismos de inteligência artificial, está em saber qual o tipo de informação a ser exigida dos agentes de inteligência artificial, que possa efetivamente assegurar essa autodeterminação, que tem por pressuposto um grau de compreensão real pelo indivíduo. A realidade do uso de mecanismos informatizados de média complexidade é que o usuário, ávido pelo acesso, ordinariamente concorda com qualquer proposição do agente — e essa inclinação natural tende a se confirmar em se cuidando de inteligência artificial, tema mais árido à compreensão do usuário comum. O risco, portanto, está em que direitos como o contido no artigo 5º, II — "direito a explicação sobre a decisão, recomendação ou previsão tomada por sistemas de inteligência artificial" — se torne mera afirmação retórica, incapaz de empreender à proteção que se cogitou.

Já no tema da intervenção humana como garantia em favor das pessoas afetadas por sistemas de inteligência artificial, o texto proposto (artigo 5º, IV) parece deixar brechas indesejáveis. Aludindo a "direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico", tem-se como uma das leituras possíveis aquela que admite a superveniência de um estado tal de desenvolvimento que dispensa essa mesma intervenção humana. Em que ponto se terá isso? Quem será o juiz desse estado da arte? O substitutivo não responde a essas indagações.

Essa mesma "janela", para uma eventual exceção à garantia da intervenção humana, se tem no artigo 10, que restringe o direito à revisão a "decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências". Relevância e impacto significativo parecem expressões carregadas de subjetividade, o que enfraquece a garantia.

Os dois exemplos explicitam a já referida hesitação que a proposta revela, entre uma clara inclinação garantista em favor da pessoa, e a viabilização do desenvolvimento de uma tecnologia que, efetivamente, tem grande potencial para contribuir para o aprimoramento da ação pública. A dificuldade é compreensível, eis que o trade-off envolvido pode trazer consequências graves. Uma alternativa possível teria sido remeter o juízo, em relação a essas exceções à garantia de intervenção humana revisiva, à "autoridade competente" — que se afigura, segundo a proposição, como o centro de inteligência na matéria. Não se pode perder de vista que os mecanismos de proteção às pessoas afetadas por sistemas de IA terão, em tese, aplicação também em relação aos agentes econômicos — donde a relevância de uma supervisão mais efetiva à interpretação que se empreenda às exceções contidas na norma.

Abdicar do potencial de aprendizado que IA apresenta é uma não-hipótese; sociedades complexas não podem se dar ao luxo de renunciar ao concurso de mecanismos que podem reduzir essa mesma complexidade, ou potencializar respostas múltiplas que atendam a pluralidades de interesses. O direito terá dificuldade em empreender um sistema regulador, como já referi em texto anterior desta coluna — Por um Direito ainda relevante na vida digital. Afinal, a velocidade da evolução tecnológica nesta área é em muito superior à sua capacidade de oferecer resposta normativa. Nem por isso, ele poderá se furtar à tarefa regulatória.

Necessário será manter um diálogo permanente com os integrantes do ecossistema de novas tecnologias, e abdicar da pretensão totalizante de que uma única norma jurídica possa equacionar esse complexo cenário.

O substitutivo proposto pela comissão de juristas avança em relação ao texto anterior — mas ainda propõe importantes temas não suficientemente equacionados. Tenhamos o relatório da comissão de juristas como o start do imprescindível debate coletivo — e não como uma conclusão a que estamos ainda longe de chegar.

 


[1] Ver art. 6°, I do PL 21/2020: Art. 6º – "Ao disciplinar a aplicação de inteligência artificial, o poder público deverá observar as seguintes diretrizes:

I – intervenção subsidiária: regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente"

[2] MENDES, Laura Schertel Ferreira. Autodeterminação informativa: a história de um conceito. Pensar-Revista de Ciências Jurídicas, v. 25, n. 4, 2020, p. 1-18.

Autores

  • é professora da Universidade Federal de Goiás, visiting fellow no Human Rights Program da Harvard Law School, pós-doutora em Administração pela Ebape-FGV, doutora em Direito pela Universidade Gama Filho, procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

Tags:

Encontrou um erro? Avise nossa equipe!