Opinião

Marco Legal da Inteligência Artificial: ponderações sobre a responsabilidade civil

Autor

22 de fevereiro de 2022, 20h41

O Marco Legal da Inteligência Artificial, aprovado na Câmara dos Deputados em 2021, na forma do PL 21/20, tramitará em conjunto com outras duas propostas sobre o tema no Senado Federal (PL 5051/19 e PL 872/21).

Uma das polêmicas mais relevantes da futura legislação é a responsabilidade civil, a qual, na versão do artigo 6º, inciso VI, do PL 21/20, estabelece a subjetiva como solução padrão para danos causados por uma atividade virtual ou física por um equipamento ou processo conduzido por sistema informático que incorpore metodologias de inteligência artificial:

"Artigo 6º, VI responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado".

A proposta harmoniza-se com o ordenamento brasileiro, que se pauta pela responsabilidade civil subjetiva como padrão e adota a responsabilidade objetiva para atividades que envolvam risco inerente ou nas hipóteses de relação de consumo onde há assimetria entre fornecedor e consumidor. Também segue propostas internacionais, que se baseiam na responsabilidade subjetiva em geral e atribuem responsabilidade objetiva apenas para sistemas de IA cujo emprego envolva atividade de alto risco, como, por exemplo, a proposta do Parlamento Europeu de outubro de 2020, que propõe a criação de um regime de responsabilidade civil para a inteligência artificial (P9_TA-PROV(2020)0276).

A inteligência artificial é uma tecnologia baseada em diferentes metodologias de aprendizado de máquina e representação de conhecimento humano que traz enorme potencial de benefícios econômicos, sociais e ao conhecimento científico, sendo possível mapear seus riscos. O ponto chave da atuação jurídica deve se voltar à modelação de níveis escalonados de mapeamento e criação de salvaguardas proporcionais para a mitigação de riscos a depender da faixa de risco da aplicação. Também o regime geral de responsabilidade civil deve refletir esse escalonamento com a finalidade de, ao mesmo tempo, fomentar a inovação e proteger direitos individuais de terceiros. Embora máquinas ou processos que incorporem IA possam causar danos, direta ou indiretamente, é possível afirmar que:

Grande parte das aplicações de IA tem um risco baixo ou médio de causar danos físicos ou psicológicos, impactos a direitos fundamentais do cidadão ou danos ao meio ambiente;

— Na grande maioria dos casos, os danos ocorridos são resultado de intervenção humana no desenvolvimento da IA, ou no seu emprego ou em seu funcionamento;

— Embora seja difícil apontar a ação específica que causou o dano, considerando a multiplicidade de ações e agentes envolvidos, é possível indicar aqueles responsáveis pelo controle das decisões e do risco em diferentes etapas da cadeia de produção, desde a concepção, desenvolvimento, manutenção e monitoramento de um sistema;

— Embora possa ser difícil especificar quais fatores foram determinantes para uma particular decisão ou ação adotada por alguns tipos específicos de sistemas de IA (opacidade) e alguns de seus resultados possam ser imprevisíveis até mesmo para os desenvolvedores, esse aspecto apenas se observa em algumas metodologias mais complexas, como aprendizagem de máquina profunda, o que, mesmo nessas metodologias, não impede os envolvidos de mapear os riscos presentes no seu ciclo de desenvolvimento e emprego e de adotar medidas proporcionais para a mitigação de riscos.

Assim, a escolha do modelo de responsabilidade deve partir da observação desses elementos técnicos e não pelas impressões trazidas por episódios de dano. Também é incorreto inferir que o problema de opacidade e a possível imprevisibilidade de alguns resultados para algumas metodologias significaria que os desenvolvedores desconhecem o funcionamento do sistema ou que seriam incapazes de indicar ou identificar fontes de falhas ou de vieses em uma análise a posteriori.

A partir dessas considerações, devem ser vistas com extrema cautela eventuais sugestões para se atribuir responsabilidade objetiva àqueles que desenvolvem ou que empregam sistema de IA em seu benefício, tendo em vista que tal modelo pode, de um lado, desincentivar o investimento e emprego da tecnologia e transformar o risco em um custo a ser incorporado na sua produção e a ser transferido a seus consumidores, em vez de indicar quais seriam as ações consideradas adequadas e que deveriam ser exigidas para minimizar os riscos da tecnologia.

O fundamental é que haja segurança jurídica para o desenvolvimento e o emprego da inteligência artificial no Brasil, o que pode ser alcançado com o regime geral de responsabilização subjetiva, aliada ao instituto da autorregulação regulada, trazendo parâmetros mínimos de governança no desenvolvimento, emprego e monitoramento dos sistemas de IA, capazes de balizar o que significa o dever de cuidado a ser tomado, tanto para o trabalho de conformação pelos agentes, quanto para a atividade judicante do Poder Judiciário. Esses parâmetros mínimos orientarão instituições de autorregulação no desenvolvimento de códigos de conduta específicos para diferentes setores de atividade econômica e de possível emprego da tecnologia, podendo ser reconhecidos posteriormente pela autoridade pública competente. Vale notar que o artigo 6º, inciso VI, do PL 21/20 já prevê que a observação de boas práticas valem como indicadores do dever de cuidado a serem considerados no momento de atribuição de responsabilidade, ao estabelecer que a responsabilização deve considerar "como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado".

O artigo 6º do PL 21/2020 traz algumas indicações de boa governança a serem adotadas em regulações pelo poder público, como a elaboração de relatório de impacto e de riscos, mas que podem ser complementadas, à luz do estado da arte em documentos de entidades governamentais e privadas internacionais que disciplinam as boas práticas e trazem metodologias de certificação de sistemas de inteligência artificial. Esses documentos incluem, como parâmetros gerais, não só a análise de impacto e risco, como também, governança sobre os dados usados para treinamento, teste e validação do sistema, documentação técnica do ciclo de vida da IA, inclusive com o registro automático dos eventos durante sua operação, transparência quanto ao emprego e resultados do sistema e testes sobre sua acurácia e cibersegurança. O próprio dever de documentação de todas as decisões relevantes na especificação e treinamento dos sistemas de aprendizado de máquina, além de seu monitoramento posterior, com registro automático dos resultados, é relevante para identificação, a posteriori, de possíveis causas de eventuais danos resultantes do emprego do sistema. Trata-se, portanto, de técnica normativa que fortalece a governança responsável em linha com o novo direito procedimental que fomenta o devido processo tecnológico.

Portanto, a responsabilidade objetiva, seguindo o nosso Código Civil, deve ser resguardada para atividades de risco inerente e, segundo o Código de Defesa do Consumidor, para o emprego de IA nas relações de consumo, em que há hipossuficiência do consumidor. Os códigos de conduta desenvolvidos por instituições de autorregulação setorial poderão especificar e mesmo listar aquelas atividades consideradas de alto risco, criando assim um sistema de geração de conhecimento sobre a própria aplicação, no qual tanto posteriores desenvolvimentos que mitiguem efeitos negativos quanto a criação de segurança jurídica setorial possam ser refletidas.

André Carlos Ponce de Leon Ferreira de Carvalho
Cristina Godoy Bernardo Oliveira
Daniel Dias
Fábio Cozman
Fábio Esteves
Jessica Guedes Santos
Juliano Souza de Albuquerque Maranhão
Marcelo Finger
Ricardo Campos
Renata Wassermann
Renato Opice Blum
Rony Vainzof

Tags:

Encontrou um erro? Avise nossa equipe!