"Irresponsabilização generalizada"

Especialistas criticam responsabilidade subjetiva prevista no PL do marco da IA

Autor

27 de outubro de 2021, 20h57

Um grupo de advogados civilistas e juristas assinam carta aberta endereçada ao Senado em que criticam o artigo 6º, inciso VI, do projeto de lei 21-A/2020, que cria o Marco Legal da Inteligência Artificial no Brasil, já aprovado na Câmara.

Divulgação/CIAPJ-FGV
Especialistas questionam dispositivo que estabelece a responsabilidade civil subjetiva como o regime padrão aplicável aos danos causados por sistemas de inteligência artificialDivulgação/CIAPJ-FGV

Conforme o texto, o dispositivo que estabelece a responsabilidade civil subjetiva como regime padrão aplicável aos danos provocados por sistemas de inteligência artificial coloca em risco o direito das vítimas de buscar reparação.

"A norma cria, antes, um cenário de irresponsabilização generalizada, na medida em que torna praticamente impossível a prova pelas vítimas da culpa dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial", diz trecho da carta.

Leia abaixo na íntegra:

Nós, civilistas e juristas brasileiros, subescrevemos a presente carta aberta ao Senado Federal para manifestar profunda preocupação com o artigo 6º, inciso VI do Projeto de Lei 21-A/2020, que cria o Marco Legal da Inteligência Artificial no Brasil, estabelecendo a responsabilidade civil subjetiva como o regime padrão aplicável aos danos causados por sistemas de Inteligência Artificial.

A referida norma contraria entendimento que vem sendo construído pela doutrina jurídica, estudos e propostas nacionais e internacionais a respeito da matéria, colocando em sério risco a possibilidade das vítimas de danos causados por Inteligências Artificiais obterem a devida reparação integral e, por consequência, comprometendo a garantia dos direitos fundamentais previstos pelos incisos V e X do artigo 5º da Constituição da República.

A Inteligência Artificial é tema fundamental para o desenvolvimento social e econômico do país. Ao mesmo tempo, é tecnologia que, com sua complexidade inaudita e pelo próprio fato de estar ainda em pleno desenvolvimento, fase em que não é possível alcançar um nível satisfatório de previsibilidade sobre os efeitos de sua utilização, deve ser empregada em contextos que garantam um grau mínimo de risco à pessoa, garantida a reparabilidade quando necessário.

A proposta, ao contrário, ao privilegiar o regime da responsabilidade subjetiva, não somente impõe os custos do desenvolvimento de aplicações de Inteligência Artificial ao cidadão – em inversão patente da tábua de valores constitucional – como não fomenta os necessários incentivos para que as devidas medidas de precaução sejam tomadas quando do seu emprego.

Ainda, a eleição do regime de natureza subjetiva como prioritário, em abstrato, ao contrário do que se tem defendido, não favorece o ecossistema de investimentos no Brasil. A norma cria, antes, um cenário de irresponsabilização generalizada, na medida em que torna praticamente impossível a prova pelas vítimas da culpa dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial.

Além disso, a inclusão no Projeto de Lei do §3º do artigo 6º, que prevê o regime de responsabilidade civil objetiva para os danos causados no âmbito de relações de consumo, em nada inova no ordenamento e não é capaz de atenuar o grave entrave gerado pelo inciso VI do mesmo artigo.

Diante disso, sugerimos a alteração da redação do dispositivo, nos seguintes termos:

Onde atualmente consta: “Artigo 6º: VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.”

Sugerimos que passe a constar: “Artigo 6º: VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, levar em consideração a tipologia da inteligência artificial, o risco gerado e seu grau de autonomia em relação ao ser humano, além da natureza dos agentes envolvidos, a fim de se determinar, em concreto, o regime de responsabilidade civil aplicável.”

Assinam esta carta, em ordem alfabética:

Ana Frazão
Anderson Schreiber
Bruno Bioni
Bruno Miragem
Caitlin Sampaio Mulholland
Carlos Edison do Rêgo Monteiro Filho
Cristiano Chaves de Farias
Danilo Doneda
Dierle Nunes
Estela Aranha
Fabiano Menke
Filipe José Medon Affonso
Gustavo Tepedino
Guilherme Damasio Goulart
Guilherme Calmon Nogueira da Gama
Guilherme Magalhães Martins
Ingo Wolfgang Sarlet
Juliano Madalena
Laura Schertel Mendes
Lucia Maria Teixeira Ferreira
Marcos Ehrhardt Júnior
Maria Celina Bodin de Moraes
Milena Donato Oliva
Nelson Rosenvald
Rafael Zanatta

Tags:

Encontrou um erro? Avise nossa equipe!