ODISSEIA LEGISLATIVA

Marco da IA abre leque incontrolável de interpretações para juízes, diz professor

Autor

5 de dezembro de 2021, 8h49

A Câmara dos Deputados aprovou no fim de setembro o Marco Legal da Inteligência Artifical (PL 21/2020). De autoria do deputado Eduardo Bismarck (PDT-CE), o projeto foi aprovado em regime de urgência na forma do substitutivo da relatora, deputada Luísa Canziani (PTB-PR). O texto será agora analisado pelo Senado.

Spacca
Um dos pontos mais controvertidos da proposta diz respeito ao dispositivo que estabelece a responsabilidade civil subjetiva como regime padrão aplicável aos danos provocados por sistemas de inteligência artificial (artigo 6º, inciso VI, do PL). Um grupo de advogados chegou a assinar uma carta aberta por meio da qual criticam o que chamam de "irresponsabilização generalizada".

Para Ricardo Campos, um dos principais estudiosos do assunto, a discussão sobre o regime de responsabilidade aplicável à IA — se objetiva ou subjetiva — revela um engessamento do debate brasileiro. Segundo o especialista — que é mestre e doutor pela Goethe Universität e vencecedor do prêmio Werner Pünder (2021) por trabalho sobre regulação de serviços digitais — essa dicotomia não é suficientemente complexa para abarcar de forma adequada a construção da segurança jurídica a longo prazo.

Em entrevista à ConJur, o docente na Goethe Universität Frankfurt am Main (Alemanha) na área de novas mídias, proteção de dados e direito público também disse que o PL não fornece parâmetros sólidos para que juízes possam decidir sobre litígios envolvendo IA, pois o texto é muito genérico. "Uma lei principiológica abre um leque incontrolável de opções interpretativas para juízes que certamente gerará um efeito negativo para o setor e para inovação propriamente dita", afirmou.

"Com princípios não se criam obrigações concretas, cria-se muito mais uma espécie de 'carta magna de boas intenções'. (…) Poderia-se economizar tinta e focar mais em compromissos concretos entre proteção de direitos e garantias e fomento à inovação na forma de obrigações", completou.

Leia a íntegra da entrevista:

ConJur  Uma regulamentação do uso da inteligência artificial é mesmo necessária ou as normas e institutos jurídicos existentes já seriam suficientes?
Ricardo Campos 
— Embora haja legislações aplicáveis, como a Lei Geral de Proteção Dados, o Marco Civil da Internet e o Código de Defesa do Consumidor, as especificidades da nova economia de dados atrelada à utilização de inteligência artificial exige uma forma de modulação do problema mais adequado à complexidade do campo.

ConJur — De modo geral, como avalia o PL 21/2020?
Ricardo Campos 
— A despeito do modo acelerado de tramitação, o PL 21/2020 traz uma importante dimensão da regulação de novas tecnologias: proteção à autonomia privada e o fomento à inovação. Entretanto, o PL em questão não incorpora uma outra importante dimensão da regulação de novas tecnologias que é centrada na proteção de garantias e direitos individuais no uso da inteligência artificial. Um projeto que visa regular a área e gerar segurança jurídica a longo prazo para o ecossistema digital brasileiro deve inevitavelmente combinar essas duas dimensões.

ConJur — O PL fornece parâmetros sólidos para que os juízes possam decidir sobre litígios envolvendo IA?
Ricardo Campos 
— Não, e aqui mora um grande perigo para a economia digital brasileira que o setor ainda não vislumbrou. Uma lei principiológica abre um leque incontrolável de opções interpretativas para juízes que certamente gerará um efeito negativo para o setor e para inovação propriamente dita. Ativismo judicial ou tirania dos princípios (em alusão a Carl Schmitt) são fenômenos recorrentes e incontroláveis atingindo a segurança jurídica de forma irreparável.

ConJur — O que achou do processo legislativo do projeto de lei? Faltou mais debate com a sociedade civil?
Ricardo Campos 
— Diferentemente do que ocorreu com o Marco Civil da Internet, a Lei Geral de Proteção de Dados e o PL 2.630/2020 (das fake news), o PL que trata da IA foi aprovado sem um debate aprofundado com a sociedade civil.

ConJur — Como outros países têm lidado com a questão?
Ricardo Campos 
— A principal iniciativa relacionada à regulamentação de IA a nível global é, sem dúvida, a proposta atualmente em discussão do Parlamento Europeu, que inclusive serviu de inspiração para alguns poucos pontos do PL 21/20. Além disso, é possível destacar as diretrizes da OCDE, que estabelecem princípios e recomendações para o desenvolvimento de sistemas de Inteligência Artificial.

ConJur — O principal aspecto a ser definido diz respeito à responsabilidade (civil e até criminal)?
Ricardo Campos 
— A discussão sobre responsabilidade criminal não é tão relevante no momento. A responsabilidade civil, por sua vez, é um ponto sensível, que tem suscitado importantes debates por parte da academia e sociedade civil.

ConJur — O inciso VI do artigo 6º do PL aprovado prevê, como regra, o regime da responsabilidade subjetiva. A responsabilidade deve ser objetiva ou subjetiva, na sua avaliação?
Ricardo Campos 
— A discussão em torno do artigo 6º revela muito sobre o engessamento do debate brasileiro. Por um lado, as empresas procuram com a responsabilidade subjetiva colocar a violação de direitos na conta do violado enquanto que, por outro lado, a responsabilidade objetiva coloca na conta da inovação a absorção de riscos de uma economia que ainda está nascendo. Logicamente nenhuma dessas opções é complexa o suficiente para abarcar de forma adequada a construção da segurança jurídica a longo prazo para o campo.

Nós, do Instituto Legal Grounds, elaboramos em conjunto com um grupo de especialistas europeus uma modelagem do problema mais moderna e que visa combinar o fomento à inovação com a proteção a direitos de terceiros. E a ideia segue a recente experiência europeia em combinar um sistema de gradação de riscos com a necessidade de implementação de sistema de governança pelas empresas, dependendo do risco envolvido. Daí se desloca o debate da pouco complexa responsabilidade objetiva/subjetiva para uma dimensão procedimental mais condizente com o âmbito dinâmico de regulação de serviços digitais e a necessidade de fomento à inovação combinada com a proteção de direitos e garantias individuais.

ConJur — O princípio da precaução poderia ser aplicado à IA?
Ricardo Campos 
— Aqui [na IA] entra o sistema de gradação de risco, que visa amortizar o impacto da necessidade de compliance por aplicações que gerem riscos mínimos a direitos de terceiros. Isso significa que o princípio da precaução passa a ser relativizado de acordo com o real risco e projetado para a construção de um adequado sistema de governança pelas empresas. Ou seja, a precaução não significa uma necessidade de antever conflitos futuros, mas de estabelecer um sistema adequado de governança que faça a gestão do risco envolvido.

ConJur — Segundo o PL, a IA funciona "a partir de um conjunto de objetivos definidos por humanos". Esses objetivos devem ser públicos? Ou pode prevalecer o segredo industrial/comercial?
Ricardo Campos 
— Existe uma máxima do liberalismo moderno: vícios privados, virtudes públicas. Um padeiro não vende pão objetivando alimentar a população como um todo, mas ele acaba colateralmente o fazendo, em certa medida. A questão não se encontra no plano dos objetivos, mas em se criar mecanismos regulatórios para que externalidades não desejadas e ilegais sejam corrigidas. Isso necessariamente ocorre por exemplo dimensão do machine learning, na qual há uma tendencial autonomização da aplicação com relação ao programador. Em outras palavras, o problema não está no plano dos objetivos ou intenções a sociedade democrática-liberal superou certas formas de teologismos mas em evitar efeitos colaterais danosos a terceiros.

ConJur — Como aferir se uma IA está incorrendo em discriminação algorítmica? O PL fornece parâmetros para a resposta?
Ricardo Campos 
— Essa é uma questão nova e complexa. A Alemanha aprovou seu novo marco de regulação dos meios de comunicação incorporando agora também as plataformas, o chamado "Medienstaatsvertrag". Nele há também um previsão antidiscriminatória, mas ainda sem experiencia em sua aplicação prática. Também a recente ISO 24027:2021, que determina critérios a serem observados desde a coleta dos dados, passando pelo treinamento dos sistemas de IA, até sua testagem e avaliação, perpassa o tema. O nosso PL nesse sentido é mais lacunoso, mas dificilmente seria diferente visto a falta de experiência global sobre o assunto.

ConJur — Acha que o PL tem alguns fundamentos e princípios que podem ser conflitantes entre si? Por exemplo, um dos fundamentos é o respeito aos direitos humanos e aos valores democráticos; além da não discriminação, pluralidade, respeito às diversidades regionais etc. Por outro lado, também tem como fundamento a livre iniciativa e concorrência. É possível conciliar isso tudo? 
Ricardo Campos — Essa questão de lei principiológica é algo interessante. Com princípios não se criam obrigações concretas, cria-se muito mais uma espécie de "carta magna de boas intenções". Princípios geralmente são fórmulas de reflexão posterior pelo Judiciário, especialmente por cortes supremas. O que muda escrever dignidade da pessoa humana numa lei se já está na Constituição? E isso vale para todos os outros princípios. Eles já se inserem num contexto normativo, no qual eles valem independentemente de estar novamente em lei infraconstitucional. Nesse ponto, poderia-se economizar tinta e focar mais em compromissos concretos entre proteção de direitos e garantias e fomento à inovação na forma de obrigações.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!