Opinião

Diretrizes para o aperfeiçoamento do marco legal da IA no Brasil

Autores

  • Juliano Souza de Albuquerque Maranhão
  • Rony Vainzof

    é sócio da Opice Blum Bruno e Vainzof Advogados e coordenador da pós-graduação em Direito Digital da Escola Paulista de Direito.

  • Renato Opice Blum

    é advogado economista chairman e sócio fundador do Opice Blum Bruno e Vainzof Advogados Associados patrono regente do curso de pós-graduação em Direito Digital e Proteção de Dados da Ebradi e professor coordenador na Faap.

  • Ricardo Campos

    é docente nas áreas de Proteção de Dados Regulação de Serviços Digitais e Direito Público na Faculdade de Direito da Goethe Universität Frankfurt am Main doutor e mestre pela Goethe Universität coordenador da área de Direito Digital da OAB Federal/ESA Nacional diretor do Instituto Legal Grounds e sócio do Warde Advogados.

  • Giovana Lopes

    é doutoranda na Universidade de Bolonha Itália.

  • Samuel Rodrigues de Oliveira

    é doutorando em Teoria do Estado e Direito Constitucional pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) coordenador do Legal Grounds Institute e advogado.

2 de setembro de 2021, 13h40

O emprego de programas de computador baseados em técnicas de inteligência artificial (IA) nos mais diferentes campos de relações econômicas ou sociais ou sua incorporação à robótica ou ao maquinário industrial traz consigo o potencial de contribuir para resultados benéficos para a sociedade, seja pelo aumento de produtividade, redução de custos e criação de novas oportunidades de investimentos ou disponibilização de novos produtos ou serviços. Dado esse potencial, a IA passou a ser elemento chave para o desenvolvimento empresarial e social, e, por conseguinte, da economia nacional, razão pela qual passou a ser elemento estratégico nos planos de desenvolvimento nacionais, tanto do ponto de vista de bem-estar interno como do ponto de vista de sua atuação geopolítica e inserção na economia global. Não por outro motivo assistimos à divulgação de planos estratégicos de diversos países, líderes globais ou regionais, com delineamentos de fontes e procedimentos para investimento nessa tecnologia, aproveitando recursos e vantagens existentes, ou buscando apoio externo para capacitação e subsídios técnicos para a área de pesquisa e desenvolvimento, tanto em âmbito acadêmico quanto industrial [1].

Contudo, os mesmos elementos e técnicas responsáveis por produzir tais benefícios socioeconômicos podem também trazer novos riscos a direitos fundamentais ou consequências adversas para os cidadãos e a sociedade, aspecto que vem sendo abordado com maior ou menor ênfase em estratégias nacionais e que gerou a produção de uma série de documentos de organizações governamentais, não governamentais e de indústria elencando requisitos técnicos e éticos para o desenvolvimento de sistemas de inteligência artificial confiáveis e responsáveis.

Nesse sentido, propostas de regulação da tecnologia devem ter em mente a velocidade com a qual esta evolui, buscando impulsionar o investimento e evitar intervenções ex ante que possam limitá-lo ou inibi-lo, no sentido de obter as vantagens e benefícios potenciais, mas também adotar mecanismos para mitigar riscos e abordar os aspectos éticos envolvidos.

Uma abordagem regulatória equilibrada, apta a propiciar mecanismos de estímulo e fomento ao investimento, bem como segurança jurídica em relação aos parâmetros de governança mínimos necessários à promoção de tecnologias éticas e seguras, revela-se necessária para garantir às pessoas a confiança necessária para adotarem soluções baseadas em IA, e simultaneamente incentivar as empresas para que as desenvolvam.

De fato, a harmonização de ambos os interesses constitui o principal objetivo da Estratégia Brasileira de Inteligência Artificial (Ebia), publicada em abril deste ano pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações. Com o intuito de promover o desenvolvimento nacional na área, a Ebia traz orientações ao Estado brasileiro para o fomento de ações que estimulem a pesquisa, inovação e desenvolvimento de soluções em IA, assim como seu uso consciente, ético e em benefício da sociedade.

Três meses após a publicação do documento, a Câmara dos Deputados aprovou em regime de urgência a votação do Projeto de Lei 21/2020, que iniciou sua tramitação no ano passado e que instaura o marco legal da IA no Brasil, determinando princípios, direitos, deveres e instrumentos de governança para o desenvolvimento da tecnologia. Naquele documento não foram tratadas questões importantes como a regulamentação e a disposição orçamentária para colocar em prática os projetos almejados. Ademais, o PL é generalista no tratamento das diferentes aplicações de IA. Algumas das limitações foram abordadas pelo substitutivo ao PL 21/20, elaborado pela Comissão de Ciência e Tecnologia, Comunicação e Informática, relatado pela deputada Luíza Canziani. Assim, foram inseridos alguns padrões de governança para o desenvolvimento e emprego de sistemas de IA, mas cuja obrigatoriedade ficou restrita apenas a projetos implementados pelo poder público. Pronunciando cautela em relação à intervenção externa na tecnologia, foi atribuída a tarefa de regulação específica da tecnologia a agências reguladoras setoriais, em uma abordagem baseada em risco, com uma indicação clara, como melhor caminho, da validação de códigos de conduta e critérios de governança provenientes de autorregulação por parte dos agentes econômicos.

Nesse contexto, submetemos para apreciação à Frente Digital da Câmara dos Deputados proposta de aperfeiçoamento ao Projeto de Lei de Regulação da Inteligência Artificial (que segue ao final do presente texto), sugerindo a inserção de artigos aptos a viabilizar e estimular investimentos na área e a criação de uma estrutura de governança, baseada em risco trazido pelos sistemas de IA, mas que traga, em prol de um mínimo de convergência e segurança jurídica, um conjunto mínimo de padrões de governança vinculantes para sistemas de alto risco e voluntários para sistemas que não sejam de alto risco. Também buscamos especificar quais seriam as condições mínimas para validação, pelo Estado, de soluções de autorregulação, de modo a elevar sua legitimidade e confiança em relação aos sistemas. Entendemos que essa abordagem traga melhores condições para se promover os valores elencados no PL 21/2020 e na Ebia.

No que tange ao estímulo e fomento ao investimento, a abordagem proposta tem por objetivo encontrar fontes de capital, desenvolver programas de apoio público e fomento a iniciativas de pesquisa e desenvolvimento e induzir parcerias entre o setor público e entidades da sociedade civil, como a academia, instituições de pesquisa, agências de fomento e indústria.

Assim, foi sugerida a vinculação do PL à observância de medidas de incentivo à inovação e à pesquisa científica estabelecidas pela Lei de Inovação Tecnológica, bem como aos parâmetros e regimes jurídicos previstos na legislação que trata de parcerias público-privadas. Visando à construção de um ecossistema que potencialize iniciativas e estimule a concorrência, sugerimos, ainda, que o Ministério de Ciência, Tecnologia e Inovações promova programas e oportunidades de desenvolvimento para pequenas empresas e startups, inclusive com a criação de ambientes controlados de inovação, com sandboxes e hubs regulatórios.

Finalmente, buscou-se conectar o objetivo de investimento e estímulo à pesquisa, inovação e desenvolvimento de soluções em IA com recursos oriundos de fundos públicos. Em relação ao Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), indicado pela Ebia como fonte de recursos, propõe-se inserir, na respectiva lei de constituição, a priorização de investimentos em IA, criando-se a modalidade de investimento associado a parcerias de pesquisa e desenvolvimento com entidades da sociedade civil. Em relação ao fundo cujas receitas são provenientes de indenizações por danos a interesses e direitos coletivos difusos, foi proposto inserir a pesquisa e desenvolvimento de sistemas de IA em benefício à sociedade como uma possível destinação de recursos.

No que diz respeito à criação de uma estrutura de governança, o PL 21/2020 reconhece, em consonância com a Ebia, a necessidade de adoção de parâmetros éticos para mitigar riscos inerentes aos sistemas de IA, promovendo valores como a segurança, a transparência e a centralidade no ser humano. O projeto avançou importante contribuição ao trazer, para o âmbito nacional, princípios éticos já consagrados internacionalmente, visando ao desenvolvendo de um quadro jurídico para uma IA de confiança, e tendo como base os valores e direitos fundamentais do nosso ordenamento.

Entretanto, pautar a regulamentação da tecnologia apenas em padrões éticos pode não ser a estratégia adequada para se alcançar os objetivos almejados com a regulação. Isso porque, embora uma norma principiológica estabeleça a nível geral e abstrato os valores a serem perseguidos, inexiste propriamente consenso sobre o significado e alcance de tais parâmetros éticos, ou seja, sobre quais seriam os compromissos de conduta deles derivados [2].

Além disso, a mera enunciação desses princípios sem o detalhamento de regras de conduta específicas resultaria em insegurança jurídica, na medida em que caberia ao Poder Judiciário interpretar e especificar obrigações através de interpretações fragmentadas da norma. Garantir a segurança jurídica é imprescindível para atrair investimentos e facilitar a inovação no domínio de IA.

Finalmente, destacamos que a implementação desses princípios será inviável se seu significado, importância e alcance não forem especificados para setores diversos ou tipos diferentes de aplicação. Desse modo, a utilização de um quadro baseado no risco revela-se uma opção mais adequada do que aplicar uma regulamentação generalizada a todos os sistemas de IA. Os tipos de riscos e ameaças devem ser baseados numa abordagem setorial e casuística, tendo em conta o impacto nos direitos e na segurança dos indivíduos.

Se, por um lado, o PL 21/2020 traz os requisitos baseados em princípios que os sistemas de IA devem respeitar abrangentes o bastante para lidar com desenvolvimentos futuros , por outro lado, propomos a criação de um sistema regulamentar proporcionado, centrado numa abordagem regulamentar baseada no risco e que não crie restrições desnecessárias ao uso da tecnologia, na qual a intervenção jurídica é adaptada às situações concretas em que existe um motivo de preocupação justificado acerca de determinada aplicação de IA.

Tal sistema regulamentar especificaria os padrões mínimos de governança, capazes de orientar os agentes envolvidos no desenvolvimento e disponibilização de sistemas de IA, sobre as condutas que são exigidas, por meio de um conjunto de obrigações procedimentais mandatórias para sistemas que envolvam risco elevado e voluntárias para sistemas que não envolvam risco.

Essa abordagem baseada em graus de risco e complementada por códigos de conduta para os sistemas de IA limita os riscos de violação a direitos fundamentais e à segurança dos cidadãos e promove a supervisão e a execução eficazes, ao associar os requisitos apenas aos sistemas em que existe um risco elevado de que tais violações venham a ocorrer. Como consequência, mantém-se os custos de conformidade a um valor mínimo, evitando desincentivos à adoção da tecnologia devido a preços e custos de conformidade mais elevados. Empresas que desenvolvam ou utilizem aplicações de IA que não sejam consideradas de risco elevado terão apenas obrigações mínimas de informação aos usuários, podendo adotar voluntariamente os requisitos exigidos dos sistemas de risco elevado como estratégia negocial.

Trata-se de forma de regulação moderna em relação a atividades que trazem riscos inerentes, mas cuja intervenção excessiva pelo Estado poderia limitar o desenvolvimento e inovação, razão pela qual foi escolhida pela Comissão Europeia em proposta recente de regulamentação da inteligência artificial (o chamado EU Artificial Intelligence Act). Ademais, essa forma de regulação já foi adotada com sucesso pelo ordenamento jurídico brasileiro, sobretudo nas Leis nº 12.846/2013 (Lei Anticorrupção) e nº 13.709/2018 (Lei
Geral de Proteção de Dados)
, levando a uma cultura de compliance e adequação de empresas às melhores práticas de governança corporativa.

Diferentemente da proposta europeia, porém, não propusemos de antemão limitações a tipos de inteligência artificial (proibições absolutas), nem mesmo a especificação ex ante do que seria inteligência artificial de alto risco, deixando tais definições para legislação, regulação ou autorregulação setorial posterior, a ser elaborada e implementada conforme o amadurecimento da tecnologia no Brasil e a identificação mais precisa dos riscos envolvidos em cada atividade ou aplicação. Por exemplo, aplicações de IA que possam resultar em danos à saúde, à integridade física e psíquica, em discriminação, na perda de benefícios sociais ou em prejuízos à correta administração da justiça são exemplos de usos da tecnologia que podem resultar em risco elevado.

No que diz respeito à regulação procedimental de melhores práticas a serem adotadas pelos desenvolvedores de sistemas de IA, entendemos que o melhor caminho a se seguir seja a adoção de soluções de corregulação ou "autorregulação regulada". Tendo em vista a dinâmica de evolução constante da tecnologia em tela, a inovação e a diversidade de contextos para cada setor de aplicação, a mera imposição externa de normas pelo Estado, sobretudo genéricas e insensíveis a tais especificidades, não parece ser a alternativa adequada.

Por meio de mecanismos de corregulação, o Estado pode induzir a formação e reconhecer instituições de autorregulação de desenvolvimento responsável e ético da IA, bem como instituições de certificação que possam gerar confiança para o uso e crescimento saudável dessa tecnologia no Brasil. Ademais, aproveitam-se, desse modo, estruturas já existentes, sendo desnecessária a criação de novas agências governamentais para tanto.

Acreditamos que as propostas sugeridas ao PL 21/2020, baseadas nos pilares de fomento à inovação e indução de melhores práticas de governança para mitigação de riscos, via regulação e autorregulação, auxiliarão na concretização dos objetivos e ideais formulados na Ebia para o desenvolvimento de um ambiente de inovação tecnológica seguro e confiável para o crescimento da pesquisa e produção de sistemas de IA no Brasil.

Clique aqui para ler a íntegra da proposta de aperfeiçoamento ao Projeto de Lei de Regulação da Inteligência Artificial

 


[1] Veja-se: JOBIN, Anna; IENCA, Marcello; VAYENA, Effy. The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence, v. 1, 2019, p. 389-399; e LAWGORITHM. National Artificial Intelligence Strategies. 2 dez. 2019. Disponível em: https://lawgorithm.com.br/en/estrategias-ia/. Acesso em: 24 ago. 2021.

[2] MARANHÃO, Juliano. O Debate sobre o Marco Legal da Inteligência Artificial no Brasil. Estadão. 6 jul. 2021. Disponível em: https://politica.estadao.com.br/blogs/gestao-politica-e-sociedade/o-debate-sobre-o-marco-legal-da-inteligencia-artificial-no-brasil/. Acesso em: 23 ago. 2021.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!