Interesse Público

Regulação da inteligência artificial no Brasil deve recalcular a rota?

Autor

  • Vanice Valle

    é professora da Universidade Federal de Goiás visiting fellow no Human Rights Program da Harvard Law School pós-doutora em administração pela Ebape-FGV doutora em Direito pela Universidade Gama Filho procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

    View all posts

13 de outubro de 2022, 8h00

Frase clássica de aplicativos de GPS (que, como se sabe, são fortemente instruídos por mecanismos de inteligência artificial — a partir de agora identificada simplesmente como IA) é a "recalculando a rota". Ela vem quando o aplicativo identifica que o usuário se desviou daquilo que foi a orientação inicial do melhor caminho. Se o curso da regulação de IA no Brasil estivesse orientado por GPS, a frase decerto estaria sendo repetida à exaustão.

Spacca
O debate em torno da regulação de IA não é simples, e já foi objeto de coluna anterior, sob o título "Regulação da inteligência artificial: o desafio de definir quem conforma valores". Na ocasião, adverti quanto às duas posições existentes quanto ao momento adequado à regulação de IA — dualidade que se põe tendo em conta o caráter certamente parcial ainda da compreensão dos desafios associados ao uso de IA, que pode conduzir a uma orientação regulatória que se revele inadequada, excessivamente restritiva de desenvolvimentos futuros ou, ao revés, fragilizadora da indispensável proteção ao humano.

Essa dualidade, todavia, parece superada pela compreensão de que, ainda que em caráter experimental, a regulação de mecanismos de IA se impõe, eis que eles têm se infiltrado por todos os aspectos da vida pessoal, dos mercados [1] e mesmo do espaço público. A questão que se põe na sequência diz respeito a qual seja a melhora abordagem regulatória a ser aplicada na disciplina do desenvolvimento e aplicação de mecanismos de IA.

No tema do instrumento normativo próprio à regulação da matéria, parece claro que a volatilidade do cenário de desenvolvimento e aplicações de IA não recomenda o uso de normas tendentes a maior estabilidade. Assim, a tendência tem sido no sentido de se empreender em sede de hard law à enunciação de principiologia que empreenda constrições à regulação orientadas, em especial, à proteção a direitos fundamentais que possam ser impactados pelo uso da referida tecnologia. Neste tema, tem-se no PL 21/2020 um alinhamento com as iniciativas internacionais, eis que ali se encontra a enunciação de objetivos à aplicação de IA (artigo 3º); fundamentos ao desenvolvimento de IA (artigo 4º); princípios para o desenvolvimento e aplicações de IA (artigo 5º); diretrizes para a regulação em IA (artigo 6º); e finalmente, diretrizes para o uso e fomento de aplicações de IA pelas entidades federadas (artigo 7º).

O cenário de alinhamento parece mudar quando se tem em conta a estratégia regulatória proposta no referida PL 21/2020 — e, por isso, a referência no título a uma recomendação de mudança de rota.

No plano internacional, duas distintas opções se apresentam no que toca à estratégia de regulação em IA.

Uma primeira orientação parece ecoar o bom e velho critério da especialização funcional — que como se sabe, delineia as deliberações atinentes à estrutura da administração — e propugna o desenvolvimento de regulações setoriais. Soa lógico que mecanismos altamente especializados como o são os de IA sejam regulados por estruturas administrativas igualmente assentadas em particular expertise no segmento em que a aplicação irá se verificar. Esta tem sido a orientação, por exemplo, nos Estados Unidos, que no "National AI Initiative Act of 2020", delineia responsabilidades do governo na matéria, e propõe uma de coordenação interagências, que promoverá o acompanhamento das iniciativas no campo de IA promovidas em cada departamento ou agência, estas operando a partir de seu próprio campo de especialização.

Essa estrutura formal, de acompanhamento e integração, veio de ser complementada pela recente edição do chamado "Blueprint for an AI Bill of Rights"; uma verdadeira norma de soft law que, fixando princípios relacionados à garantia de direitos em favor dos cidadãos americanos, exerce não só uma função pedagógica, mas também tematiza pontos relevantes do debate em torno da IA e sua orientação em favor da proteção da dignidade da pessoa.

Orientação distinta se tem na proposição ainda em debate no âmbito da União Europeia. Ali, a proposta de "REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS" centra a estratégia de regulação a partir de uma classificação de riscos que compreende quatro faixas distintas. No grau menor — risco mínimo — tem-se a dispensa de normatização específica. As faixas se distribuem progressivamente ainda em risco limitado e risco alto, com requisitos de transparência e explicabilidade crescentes. No topo da pirâmide, tem-se as aplicações que trazem consigo riscos inaceitáveis — do que decorre a proibição do desenvolvimento e utilização de mecanismos de IA assim classificados. A título de ilustração, mecanismos de IA que empreendam a ranking social — como o "Social credit system" chinês — são classificados, na regulação europeia, como de riscos inaceitáveis, não só pela inegável invasão em áreas protegidas pelo direito à privacidade, como também pela atribuição de valoração a partir de operação de IA, a condutas sociais.

Ambas as orientações, como se vê, preservam um espaço de dinamismo na atuação regulatória, seja pela estrutura institucional à qual a tarefa é confiada, seja pela admissibilidade de trânsito da aplicação de IA em consideração (no modelo europeu em especial), de uma faixa de risco para outra, que demande mais regulação, ou que ao contrário, confira maior liberdade.

O modelo brasileiro, materializado no PL 21/2020, hoje sob apreciação do Senado Federal após a aprovação na Câmara dos Deputados, opta por uma estranha combinação entre as experiências internacionais, e um modelo atípico, cuja funcionalidade pode se revelar quando menos, tão ou mais complexa que os próprios mecanismos regulados.

Assim é que ao traçar diretrizes para a regulação futura a ser desenvolvida pelo poder público, se vincula a uma lógica de "intervenção subsidiária", segundo a qual "regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente" (artigo 6º, I do PL 21/2020; os destaques não são do original). Neste particular, a proposição parece se afastar da experiência estrangeira, que reconhece ao governo relevante papel de coordenação e supervisão do desenvolvimento e aplicação de mecanismos de IA, considerados os riscos (inclusive existenciais) a ela associados. Esse aparente afastamento parece corroborado pelos artigos 4º, VII e 8º, III; ambos do mesmo PL 21/2020. Em relação de complementariedade, os referidos preceitos aludem à autoregulação como fundamento do desenvolvimento e aplicação de IA no Brasil; e ainda que as diretrizes traçadas pelo artigo 6º e 7º deva, entre outras coisas, "reconhecer as instituições de autoregulação".

Outro ponto em que se tem, na proposição brasileira, um hibridismo em relação aos modelos internacionais, é a combinação empreendida ainda no mesmo artigo 6º do PL 21/2020, entre as diretrizes de atuação setorial (inciso II) e gestão baseada em risco (inciso III).

Mecanismos de inteligência artificial têm na abrangência das bases de dados com que operam, e/ou a partir da qual aprendem, a sua principal qualidade. Disso decorrerá, frequentemente, um resultado da operação fundada em IA que se irradia por várias áreas — aquelas a partir das quais se criaram ou coletaram os dados a partir dos quais IA opera ou aprende. A avaliação de risco potencial de mecanismos de IA, portanto, será tanto mais acurada quanto mais abrangente a compreensão de onde ela vai operar e onde vai projetar efeitos.

A opção pela regulação setorial por sua vez navega em sentido contrário — a visão se especifica, o que pode comprometer a identificação de um dano colateral que mecanismo de IA regulado setorialmente possa determinar em áreas que não aquela diretamente encarregada da regulação. Gestão baseada em risco não se vê idealmente subsidiada por informações que sejam setorialmente recortadas.

Finalmente, não se identifica no referido PL 21/2020, o apontamento de estrutura institucional encarregada de promover a coordenação entre as diversas unidades de competência governamentais que possam se dedicar ao desenvolvimento de regulação setorial. Destaque-se este poderia ser um mecanismo apto a superar os problemas de eventual déficit cognitivo das unidades setoriais de regulação, em relação a possíveis externalidades adversas em outras áreas, indiretamente atingidas pelo uso de mecanismos de IA. Mais ainda, a interoperabilidade tecnológica dos sistemas de IA utilizados pelo poder público, erigida igualmente como diretriz para a atuação das entidades federadas em relação ao uso e ao fomento dos sistemas de inteligência artificial no Brasil (artigo 7º, III do PL 21/2020) seria facilitada pela existência de uma estrutura investida de coordenação destas iniciativas.

A leitura do PL 21/2020 sugere uma falta de amadurecimento no que toca à dimensão aplicativa da proposta. Rica na enunciação de parâmetros sob os mais diversos títulos (objetivos, fundamentos, princípios, diretrizes); a proposição legislativa é vaga no que toca a uma engenharia institucional relacionada ao desenvolvimento em concreto da função regulatória. Ainda que a opção de disciplina se dê pelo critério setorial, é inegável que a articulação das iniciativas contribuiria grandemente para a proteção dos valores constitucionais que se vê potencialmente em risco pelo uso frouxamente disciplinado de mecanismos de inteligência artificial.

É de se registrar que o PL 21/2020 aguarda subsídios que possam ser ofertados pela Comissão de Juristas criada pelo Ato do Presidente do Senado Federal nº 04, de 2022, cujo prazo para apresentação de conclusões foi prorrogado pelo Ato do Presidente do Senado Federal nº 12, de 2022. Não é menos relevante apontar, todavia, que o tema transborda em muito o domínio do Direito, pelo que parece insuficiente o concurso desse perfil de experts. O que parece se buscar é uma variante da advertência de Mencken, segundo a qual "para todo problema complexo existe sempre uma solução simples, elegante e completamente errada".

É inegável o fascínio humano pelas novas tecnologias, o que fomenta aquilo que Bridle [2] identificava como pensamento computacional — crença de que qualquer problema se resolve quando se aplica a computação. A aceleração do desenvolvimento de soluções de IA potencializa essa promessa, de que a máquina proverá a resposta a nossos problemas. Esse compromisso não é real; só existe em nosso imaginário, e certamente não será instrumentalizado por uma regulação resultante de um processamento legislativo apressado e irrefletido.

 


[1] O relatório de nominado "Índice Global 2022 de Adoção de IA" realizado pela IBM informa que 35% das empresas informam usar IA em suas operações, e um adicional de 42% delas informam estar explorando o uso de IA. A adoção destes mecanismos está numa curva de crescimento estável, revelando um adicional de 4 pontos em 2021.

[2] BRIDLE, James. A nova idade das trevas. A tecnologia e o fim do mundo. Tradução Érico Assis. São Paulo: Todavia, 2019, p. 12.

Autores

  • é professora da Universidade Federal de Goiás, visiting fellow no Human Rights Program da Harvard Law School, pós-doutora em Administração pela Ebape-FGV, doutora em Direito pela Universidade Gama Filho, procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

Tags:

Encontrou um erro? Avise nossa equipe!