Consultor Jurídico

seguros contemporâneos

Tecnologias emergentes: seguros e fundos de compensação

Por  e 

1) A responsabilidade civil e a gestão de riscos
A responsabilidade civil na esfera da inteligência artificial é marcada pela impermanência. Em 2021, embora se discuta a "singularidade tecnológica" [1] em caráter prospectivo, o que se tem são algoritmos sofisticados e capazes de resolver problemas cotidianos de alta complexidade e com máxima eficiência, mas ainda limitados ao campo da matemática.

Uma vantagem do sistema de responsabilidade civil brasileiro, comparativamente ao de países europeus, é a de que contamos com uma cláusula geral do risco da atividade (parágrafo único do artigo 927, CC), e não de sua periculosidade. A despeito dessa qualificação, diversas atividades baseadas em algoritmos não são intrinsecamente perigosas, mas detêm uma aptidão especial para a eclosão de lesões, sobremaneira danos extrapatrimoniais [2].

O risco de haver danos é intrínseco à própria utilização de algoritmos de inteligência artificial, eis que o aprimoramento propiciado por processos como o machine learning permite "tomar decisões independentemente da vontade do seu desenvolvedor e, inclusive, chegar a resultados sequer passíveis de previsão pelos seus programadores" [3]. Não obstante, a IA ostenta autonomia "puramente 'tecnológica, fundada nas potencialidades da combinação algorítmica que é fornecida ao software. Está, portanto, longe do agir ético dos humanos, em que radica o ser pessoa" [4].

A resolução do Parlamento Europeu de 16/2/2017 sugere a gestão de riscos. Trata-se de um apelo à função preventiva da responsabilidade civil, que foca na pessoa que é capaz, em determinadas circunstâncias, de minimizar os riscos e de lidar com os impactos negativos, sem que o dever de prevenção de danos implique no desaparecimento da obrigação de indenizar os danos causados [5].

Tendo em vista que nem todos os riscos potenciais são da mesma importância, a planificação se limita aos de maior impacto negativo e maior probabilidade de que venham a ser produzidos, o que supõe uma priorização de riscos identificados. Posteriormente, segue-se ao necessário controle, mediante monitoração de sua evolução e sua resolução, pela via da tomada de ações que mitiguem a exposição aos riscos, com o emprego de modelos heurísticos para os processos de tomada de decisão, que são baseados em dados [6].

Ao contrário do que sugere a referida resolução do Parlamento Europeu, parece-nos que gestão de riscos e responsabilidade objetiva não são alternativas, porém exigências complementares, para onde confluem os interesses de fornecedores e consumidores.

2) Sistema de seguros e fundos de compensação
2.1) O sistema de seguros
O sistema securitário é uma combinação de seguros públicos e privados, obrigatórios ou facultativos [7], sobre a forma de seguros pessoais ou seguros de responsabilidade contra terceiros. Para preservar a segurança e a confiabilidade das tecnologias digitais emergentes, o dever de cuidado de cada pessoa natural ou jurídica deve ser afetado pelo seguro o mínimo possível, sem que isso exclua a asseguração de riscos elevados.[8] Como anota Thiago Junqueira, "hoje o segurador é tecnicamente capaz — não necessariamente permitido em termos jurídicos — de ter acesso a pelo menos outros dois tipos de dados: 'observados' e 'inferidos'" [9].

O seguro facultativo praticamente se torna compulsório, pois, a fim de mitigar o impacto da responsabilidade objetiva, proprietários, usuários e operadores de robôs contratam seguros, da mesma forma que, tradicionalmente, os empregadores por seus prepostos. Essa é a lógica econômica das regras de responsabilidade objetiva, servindo como incentivo para que os empregadores amplifiquem o uso de algoritmos.

Um esquema de seguro obrigatório para categorias de alta complexidade que suponham um risco considerável para terceiros é uma inescapável solução para o problema de alocação de responsabilidade por danos [10], tal como há muito acontece com os veículos automotores. Quanto maior a frequência ou gravidade dos potenciais danos, menos provável se torna a aptidão para que as vítimas sejam individualmente indenizadas.

A questão mais problemática, do ponto de vista da responsabilidade civil, consiste em resolver os casos nos quais os danos não derivam de nenhum erro dos potenciais agentes, mas, sim, de uma decisão enviesada levada a efeito pelo algoritmo. Outro aspecto relevante consiste em determinar sobre quem recairá a contratação do seguro obrigatório. Ao proprietário ou arrendatário da máquina, tal como ocorre com veículos automotores, ou ao fabricante [11]?

Daí que o seguro de responsabilidade obrigatória se torne mais adequado, prestando-se não apenas à proteção de futuras vítimas, como garantindo-as contra o risco de insolvência do responsável, promovendo a internalização dos custos das atividades que ele realiza.

Cautelas são necessárias para a introdução do seguro obrigatório de responsabilidade civil, pois o mercado pode simplesmente não oferecer cobertura de seguro para um determinado risco, devido à falta de experiência para a sua quantificação, algo bastante provável com as tecnologias digitais emergentes, pois as seguradoras não se dispõem a subscrever riscos ainda desconhecidos.

Essa objeção pode ser superada, limitando-se a responsabilidade por riscos tecnológicos a um teto pré-determinado, como ocorre na legislação sobre seguro obrigatório de veículos automotores, cuja experiência é bem-sucedida, não obstante a necessidade de certas adaptações [12]. Com efeito, é aconselhável a cobertura de seguro obrigatória para determinadas tecnologias que impõem riscos significativos em termos qualitativos e quantitativos, em que parece improvável que os supostos ofensores sejam capazes de compensar integralmente as vítimas com seu próprio patrimônio ou com seguros privados [13].

2.2) Os fundos de compensação
Um esquema de seguro obrigatório não pode ser considerado a única resposta para o problema de como gerenciar danos, substituindo completamente as regras de responsabilidade civil. Fundos de compensação financiados e operados pelo Estado ou por outras instituições com o objetivo de compensar as vítimas pelas perdas sofridas podem ser utilizados para proteger as vítimas que possuam direito a indenização de acordo com as regras de responsabilidade civil, mas cujas pretensões não podem ser atendidas quando os demais regimes de responsabilidade forem insuficientes como resultado da operação de tecnologias digitais emergentes e na ausência de uma cobertura de seguro. Um caminho possível seria o da criação de um fundo geral de compensação acessado pela matrícula individual de cada robô em um registro específico, permitindo sua segura rastreabilidade [14].

Os fundos compensatórios protegeriam vítimas em duas frentes complementares: a) cobrindo danos produzidos por robôs que não possuem seguro de responsabilidade civil; b) compensando danos ocasionados por robôs, limitando a responsabilidade civil dos agentes intervenientes e das próprias seguradoras. Assim, independentemente de um sistema de responsabilidade objetiva e de seguro, produzido o dano, haverá um patrimônio afetado à compensação, mesmo que o robô não tenha seguro ou quando mecanismos de seguro obrigatório não se ativem por outras causas

Mediante mínima sobretaxação, é aconselhável que, quando o seguro de responsabilidade compulsória seja introduzido, residualmente se garanta um fundo de compensação para reparar os danos causados por tecnologias não identificadas ou não seguradas. Algumas sequer serão asseguráveis devido à falta de dados estatísticos de sinistralidade e cálculos atuariais sobre a capacidade lesiva de novas máquinas. Para além do seguro obrigatório, com coberturas limitadas, o fundo compensaria danos que superassem a soma assegurada. Riscos de danos elevados ou mesmo catastróficos não são completamente seguráveis, exigindo, exemplificativamente, uma parceria público-privada [15].

* Esta coluna é produzida pelos professores Ilan Goldberg e Thiago Junqueira, bem como por convidados.

 

[1] A expressão é de VINGE, Vernor. The coming technological singularity: How to survive in the post-human era. In: Interdisciplinary Science and Engineering in the Era of Cyberspace. NASA John H. Glenn Research Center at Lewis Field, Cleveland, 1993, p. 11-22.

[2] Neste sentido, o Enunciado 448 do CJF: "A regra do artigo 927, parágrafo único, segunda parte, do CC aplica-se sempre que a atividade normalmente desenvolvida, mesmo sem defeito e não essencialmente perigosa, induza, por sua natureza, risco especial e diferenciado aos direitos de outrem. São critérios de avaliação desse risco, entre outros, a estatística, a prova técnica e as máximas de experiência".

[3] PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, 2017, p. 243.

[4] MEDON, Filipe. Inteligência Artificial e responsabilidade civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020, p. 359.

[5] Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL): "53. Considera que o futuro instrumento legislativo deverá basear-se numa avaliação aprofundada da Comissão que determine se a abordagem a aplicar deve ser a da responsabilidade objetiva ou a da gestão de riscos".

[6] Conferir, a esse respeito, o texto inaugural desta coluna: JUNQUEIRA, Thiago. Aplicação da LGPD no setor de seguros. Consultor Jurídico, 08 jul. 2021. Disponível em: https://www.conjur.com.br/2021-jul-08/seguros-contemporaneos-aplicacao-lgpd-setor-seguros. Acesso em: 14 jul. 2021.

[7] Novas apólices de seguros facultativos (por exemplo, o seguro cibernético) são oferecidas aos interessados em cobrir riscos contra danos pessoais ou de terceiros. No geral, o mercado de seguros é bastante heterogêneo e pode se adaptar aos requisitos de todas as partes envolvidas.

[8] Atualmente, a legislação da UE exige seguro de responsabilidade obrigatória (de terceiros), por exemplo, para o uso de veículos a motor, transportadoras aéreas e operadores de aeronaves ou transportadores marítimos. Em complemento, a legislação dos Estados-Membros exige um seguro obrigatório de responsabilidade em vários outros casos, principalmente associados a regimes de responsabilidade objetiva, para o exercício de certas profissões. Diretiva 2009/103/EC (seguro para veículos motorizados); Regulamento (EC) No 785/2004 (seguro de transporte aéreo); Regulamento (EC) No 392/2009 (seguro de transporte marítimo).

[9] JUNQUEIRA, Thiago. Tratamento de dados pessoais e discriminação algorítmica nos seguros. São Paulo: Thomson Reuters Brasil, 2020, p. 191.

[10] Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL): "57.  Destaca que uma possível solução para a complexidade de atribuir responsabilidade pelos danos causados pelos robôs cada vez mais autónomos pode ser um regime de seguros obrigatórios, conforme acontece já, por exemplo, com os carros; observa, no entanto que, ao contrário do que acontece com o regime de seguros para a circulação rodoviária, em que os seguros cobrem os atos e as falhas humanas, um regime de seguros para a robótica deveria ter em conta todos os elementos potenciais da cadeia de responsabilidade".

[11] ARIAS, José Antonio Badillo. Responsabilidad civil y aseguramiento obligatorio de los robots, in inteligencia artificial y riesgos cibernéticos. Madrid: Tirant, 2019. p. 53.

[12] Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL): "59.  Insta a Comissão a explorar, analisar e ponderar, na avaliação de impacto que fizer do seu futuro instrumento legislativo, as implicações de todas as soluções jurídicas possíveis, tais como: c) Permitir que o fabricante, o programador, o proprietário ou o utilizador beneficiem de responsabilidade limitada se contribuírem para um fundo de compensação ou se subscreverem conjuntamente um seguro para garantir a indemnização quando o dano for causado por um robô".

[13] Artigo 788 CC/2002: "Nos seguros de responsabilidade legalmente obrigatórios, a indenização por sinistro será paga pelo segurador diretamente ao terceiro prejudicado".

[14] Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL): artigo 59. D "Decidir quanto à criação de um fundo geral para todos os robôs autônomos inteligentes ou quanto à criação de um fundo individual para toda e qualquer categoria de robôs e quanto à contribuição que deve ser paga a título de taxa pontual no momento em que se coloca o robô no mercado ou quanto ao pagamento de contribuições periódicas durante o tempo de vida do robô". O tema guarda relação, ademais, com a proposta de Frank Pasquale quanto à criação do princípio da "explicabilidade". PASQUALE, Frank. Toward a fourth law of robotics: Preserving attribution, responsibility, and explainability in an algorithmic society. University of Maryland Legal Studies Research Papers, Baltimore, n. 21, p. 1-13, jul. 2017. Disponível em: http://ssrn.com/abstract=3002546. Acesso em: 30 jun. 2021.

[15] Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL): "58.  Considera que, à semelhança do que acontece com os veículos motorizados, esse regime de seguros poderia ser complementado por um fundo de garantia da reparação de danos nos casos não abrangidos por qualquer seguro; insta o setor dos seguros a criar novos produtos e novos tipos de ofertas que estejam em linha com os avanços na robótica".




Topo da página

Nelson Rosenvald é professor do corpo permanente do doutorado e do mestrado do IDP/DF, procurador de Justiça do Ministério Público de Minas Gerais, pós-doutor em Direito Civil na Università Roma Tre (IT-2011), pós-doutor em Direito Societário na Universidade de Coimbra (PO-2017), visiting academic na Oxford University (UK-2016/17), professor visitante na Universidade Carlos III (ES-2018), doutor e mestre em Direito Civil pela PUC-SP e presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil (Iberc).

José Luiz de Moura Faleiros Júnior é advogado, doutorando em Direito Civil pela Universidade de São Paulo (USP/Largo de São Francisco), doutorando em Direito, na área de estudo 'Direito, Tecnologia e Inovação', pela UFMG, mestre em Direito pela UFU, associado fundador do Instituto Avançado de Proteção de Dados (IAPD) e membro do Instituto Brasileiro de Estudos de Responsabilidade Civil (Iberc)

Revista Consultor Jurídico, 22 de julho de 2021, 8h00

Comentários de leitores

0 comentários

Comentários encerrados em 30/07/2021.
A seção de comentários de cada texto é encerrada 7 dias após a data da sua publicação.