Opinião

Atribuição do regime de responsabilidade civil na inteligência artificial

Autores

  • Martha Leal

    é advogada especialista em proteção de dados pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul mestre em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlântico e pela Universidad Unini México pós-graduanda em Direito Digital pela Universidade de Brasília—IDP data protection officer ECPB pela Maastricht University certificada como data protection officer pela Exin e pela Fundação Getúlio Vargas do Rio de Janeiro e presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados (INPD).

  • Juliano Madalena

    é professor da Faculdade do Ministério Público do Estado do Rio Grande do Sul.

3 de julho de 2022, 6h05

O endereçamento do regime mais adequado de responsabilidade civil objetivando responder aos danos causados por sistemas de inteligência artificial representa um desafio que requer algumas definições preliminares.

Centralizando a análise na técnica do aprendizado de máquina, caracterizada pela sua capacidade de autoaprendizado e tomada de decisões autônomas, é relevante considerar que, na maioria das vezes, esses sistemas contam com uma multiplicidade de atores e com opacidade algorítmica. Esses fatores dificultam a identificação no que tange à participação dos sujeitos que integram o processo, bem como inviabilizam aos indivíduos submetidos a tais determinações o esclarecimento de como se dá a tomada de decisão.

Com isso, tal característica afeta um dos principais elementos da tradicional fórmula de compreensão da responsabilidade civil: o nexo de causalidade. Determinar o responsável pelo evento danoso será um dos principais desafios quanto à questão de responsabilidade civil na matéria.

A partir de tais considerações é possível constatarmos o potencial de riscos aos usuários ou a terceiros envolvidos no uso crescente de sistemas de inteligência artificial. A título exemplificativo do desafio que o assunto representa, citemos o caso ocorrido em 2018, no estado do Arizona, nos Estados Unidos, em que um carro autônomo atropelou uma pedestre, resultando em sua morte [1].

Pelas evidências colhidas, especialmente do exame do vídeo gravado pelo próprio veículo, o automóvel autônomo não teria realizado nenhuma manobra com o objetivo de evitar o atropelamento da pedestre que atravessava a rua em local inapropriado. Além disso, constatou-se que o veículo sequer diminuiu a velocidade como meio de mitigar os danos do acidente [2].

Desta forma, casos práticos, como o que ora se traz, e que resultou na morte de uma pessoa, impõem que a sociedade, como um todo, empreenda os melhores esforços na busca da mais eficiente composição do sistema de responsabilidade civil aplicável aos casos.

Importante reconhecer que a escolha do regime jurídico de responsabilidade civil impacta não somente na vítima e na necessária reparação do dano sofrido, como também no desenvolvimento da própria tecnologia. Não resta dúvidas de que a existência de parâmetros seguros de aferição da atribuição de responsabilidade pelo uso da inteligência artificial aumenta a confiança dos usuários e fortalece a credibilidade da tecnologia.

O desafio torna-se ainda maior quando nos deparamos com o fato de que o aprendizado de máquina é uma vertente da inteligência artificial com crescimento e desenvolvimento exponencial, estimulado pela volumetria de base de dados e a capacidade computacional para a tomada de decisões autônomas.

Importa ainda registrarmos que a faculdade de aprendizagem é o fator relevante para que se considere ou não um sistema com uso de inteligência artificial. A escolha da melhor decisão pelos sistemas de inteligência artificial representa uma dualidade, uma vez que é justamente esse o seu maior atrativo na medida em que os sistemas incrementam a capacidade humana, criando alternativas, mas também, atraindo o risco de dano na hipótese de a decisão escolhida trazer prejuízos a terceiros.

Por certo que se impõe a responsabilização do dano. Entretanto, forçoso o reconhecimento de que dadas as peculiaridades da tecnologia e a sua complexidade e desenvolvimento, a tarefa está longe de ser considerada simples.

A ausência de transparência e a consequente inexplicabilidade das decisões autônomas, somadas às dificuldades em determinar os autores que contribuem no processo, são fatores que impactam no desafio da efetiva responsabilização do dano.

Trata-se do tradicional "problema da responsabilidade civil". Onde houver fenômeno social, haverá o enfrentamento da responsabilidade civil.

Antes mesmo de ponderarmos qual o regime jurídico mais assertivo para a responsabilidade civil do uso da inteligência artificial, seja subjetiva, calcada na teoria da culpa, seja objetiva, embasada pela teoria do risco, é indispensável considerarmos aspectos como o grau de decisão da inteligência artificial, o nível de intervenção do ser humano, níveis de treinamentos e graus de risco de danos.

Se olharmos para o debate regulatório sobre a inteligência artificial na União Europeia, e que resultou na Proposta de Regulamento pelo Parlamento Europeu denominada Artificial Inteligence Act [3], constatamos que se estabelece uma metodologia de análise sólida para definição de sistemas com graus de riscos diferenciados. São considerados sistemas de inteligência artificial com risco elevado aqueles que representam potenciais significativos de causar danos à saúde, à segurança e aos direitos fundamentais dos indivíduos.

A Proposta de Regulamento apresenta um quadro jurídico que inclui mecanismos flexíveis e que permite a sua adaptação dinâmica à medida que a tecnologia evolui e surgem outras situações preocupantes.

Igualmente merece destaque as alternativas trazidas pelo instrumento regulatório, tais como a criação de um regime de seguros obrigatórios para categorias específicas de sistemas, fundos de compensação destinados à garantia de cobertura na hipótese de um robô não contar com seguro e a possibilidade de benefício da responsabilidade limitada aos atores que optarem por contribuir para um fundo de equivalência ou subscreverem um seguro, entre outras.

As possibilidades propostas pela Comissão Europeia deveriam ser trazidas para discussões a respeito da legislação nacional, na medida em que criam opções de responsabilização baseadas em risco e considerando as características dos sistemas e os seus potenciais de danos.

Aparentemente, a responsabilidade civil das aplicações dotadas de inteligência artificial não será discutida na Comissão do Senado Federal formada para a discussão da matéria. É provável que o Brasil disponha de uma norma que regule o uso da inteligência artificial, mas silencie quanto ao sistema de controle dos danos inerentes ao fenômeno tecnológico.

Pela complexidade do tema em questão, necessário se faz o incentivo do desenvolvimento tecnológico ético através da criação de um ambiente propício para fomentar a inovação e trazer confiança para criação de limites e diretrizes do uso da inteligência artificial e que partem do estabelecimento de critérios definidos que abordem a responsabilidade dos atores envolvidos no processo. Contudo, não podemos esquecer do principal ator no cenário dos eventos danosos: a vítima.

 

[1] ROBERTO, Enrico; LOPES, Marcelo Frullani. Quando um carro autônomo atropela alguém, quem responde? El País, 16 abr. 2018. Disponível em: https://brasil.elpais.com/brasil/2018/04/16/tecnologia/1523911354_957278.html#:~:text=No%20%C3%BAltimo%20dia%2019%20de%20mar%C3%A7o%2C%20essa%20discuss%C3%A3o,pedestre%20por%20meio%20de%20um%20ve%C3%ADculo%20desse%20tipo. Acesso em: 24 jun. 2022.

[2] ROBERTO, Enrico; LOPES, Marcelo Frullani. Quando um carro autônomo atropela alguém, quem responde? El País, 16 abr. 2018. Disponível em: https://brasil.elpais.com/brasil/2018/04/16/tecnologia/1523911354_957278.html#:~:text=No%20%C3%BAltimo%20dia%2019%20de%20mar%C3%A7o%2C%20essa%20discuss%C3%A3o,pedestre%20por%20meio%20de%20um%20ve%C3%ADculo%20desse%20tipo. Acesso em: 24 jun. 2022.

[3] GENERAL DATA PROTECTION REGULATION — GPDR. [Site institucional]. Artificial inteligence act. Disponível em: https://gdpr-info.eu/. Acesso em: 24 jun. 2022.

Referências:

GENERAL DATA PROTECTION REGULATION  GPDR. [Site institucional]. Artificial inteligence act. Disponível em: https://gdpr-info.eu/. Acesso em: 24 jun. 2022.

ROBERTO, Enrico; LOPES, Marcelo Frullani. Quando um carro autônomo atropela alguém, quem responde? El País, 16 abr. 2018. Disponível em: https://brasil.elpais.com/brasil/2018/04/16/tecnologia/1523911354_957278.html#:~:text=No%20%C3%BAltimo%20dia%2019%20de%20mar%C3%A7o%2C%20essa%20discuss%C3%A3o,pedestre%20por%20meio%20de%20um%20ve%C3%ADculo%20desse%20tipo. Acesso em: 24 jun. 2022.

Autores

  • Brave

    é advogada especialista em proteção de dados, pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul, mestranda em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlántico e pela Universidad Unini México, pós-graduanda em Direito Digital pela Universidade de Brasília, data protection officer ECPB pela Maastricht University, certificada como data protection officer pela Exin e pela Fundação Getúlio Vargas do Rio de Janeiro e fellow pelo Instituto Nacional de Proteção de Dados (INPD).

  • Brave

    é professor da Faculdade do Ministério Público do Estado do Rio Grande do Sul.

Tags:

Encontrou um erro? Avise nossa equipe!