Opinião

Regulamentação da inteligência artificial no Brasil: uma corrida sem sair do lugar?

Autor

16 de outubro de 2021, 17h22

Desde julho, tramitou em regime de urgência na Câmara dos Deputados o PL 21/2020, de autoria do deputado Eduardo Bismarck (PDT-CE), que tem por objetivo criar o "marco legal do desenvolvimento e uso da inteligência artificial" (IA) no Brasil. Além desse projeto, já circulavam propostas semelhantes na Câmara dos Deputados (PL 240/2020) e no Senado Federal (PLS 5051/2019 e 5961/2019), voltadas a estabelecer princípios e diretrizes gerais para o uso de IA.

No último dia 29, o PL 21/2020 foi aprovado pela Câmara dos Deputados com o texto substitutivo da relatora, a deputada Luisa Canziani (PTB/PR), que consolidou as emendas propostas por outros parlamentares. O texto que vai para o Senado, porém, revela má técnica legislativa e, apesar de se propor a estabelecer um "marco legal de IA", trata do tema de forma bastante superficial, sem considerar as discussões já travadas na academia e casos de outros países, por exemplo (contrariando, inclusive, o que prevê o artigo 6º, IV, do texto substitutivo aprovado).

O substitutivo propôs uma definição exemplificativa de "sistema de IA" em seu artigo 2º, que acaba não coincidindo com a referência feita no artigo 9º ("Sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação"), quando se aponta a competência privativa da União para legislar sobre o assunto. Aliás, a definição é problemática, já que o conceito de IA é controvertido [1]. Ainda que o substitutivo adote uma noção aberta, o conceito legal certamente não deveria ser construído sem uma compreensão, com o auxílio de cientistas da computação, sobre o que é a inteligência artificial.

Com base na doutrina jurídica, cabe observar que a IA não está sempre atrelada a um "conjunto de objetivos definidos por humanos", como sugere o artigo 2º. Hoffmann-Riem aponta que a IA refere-se à tentativa de reproduzir artificialmente programas capazes de tomar decisões à semelhança dos humanos ou de programar um computador "usando as chamadas redes neurais, de tal forma que possa processar os problemas da maneira mais independente possível e, se necessário, desenvolver ainda mais os programas utilizados" [2]. A IA está baseada em algoritmos de aprendizagem (machine learning e deep learning), "programados não só para resolver problemas específicos, mas também para aprender como os problemas são resolvidos", o que significa que devem "ser capazes de se desenvolver independentemente da programação humana" [3]. Ou seja, a IA poderá executar objetivos que estão longe de ser "definidos por humanos" [4].

Em contraste à abordagem genérica do PL 21/2020, a resolução do Parlamento Europeu de 16 de fevereiro de 2017, com recomendações à Comissão sobre Disposições de Direito Civil sobre Robótica ("Resolução"), parte de considerandos com referência a clássicos da literatura de ficção, como "Frankenstein", de Mary Shelley, e "Eu, Robô", de Isaac Asimov, e sugere que o uso da IA tome como parâmetro as leis da robótica [5]. O texto não estabelece um conceito jurídico, mas incita a comissão a propor definições para sistemas autônomos e "robôs autônomos inteligentes" considerando a sua capacidade de "adquirir autonomia através de sensores e/ou da troca de dados com o seu ambiente (interconectividade) e a análise destes dados"; "aprender com a experiência e com a interação"; "adaptar o seu comportamento e as suas ações ao ambiente"; e "a forma do suporte físico do robô".

De volta ao PL 21/2020, são elencados os seguintes princípios para o desenvolvimento da IA: finalidade benéfica, centralidade do ser humano, não discriminação, busca pela neutralidade, transparência, segurança e prevenção, inovação responsável e disponibilidade de dados. Os princípios são semelhantes aos já previstos na Lei Geral de Proteção de Dados, no que se destaca o princípio da transparência, limitado à observância do segredo comercial e industrial (artigo 6º, VI, da LGPD [6]). A ressalva é objeto de debates sobre a efetividade da transparência na LGPD, especialmente para a explicação de decisões automatizadas, o que deveria ser considerado antes de se reproduzir o texto em uma nova lei que versa justamente sobre o cerne do problema (uso da IA).

Novamente, há um contraste com o princípio da transparência previsto na Resolução, que sugere inclusive que seja "sempre possível reduzir a computação realizada por sistemas de IA a uma forma compreensível para os seres humanos; considera que os robôs avançados deveriam ser dotados de uma 'caixa negra' com dados sobre todas as operações realizadas pela máquina, incluindo os passos da lógica que conduziu à formulação das suas decisões".

Já no que diz respeito à responsabilidade civil, o artigo 6º, III, do substitutivo aprovado determina que o desenvolvimento e o uso de sistemas de IA devem ser pautados em gestão de riscos, o que poderia justificar a adoção de um regime de responsabilidade objetiva baseada no risco, conforme prevê o parágrafo único do artigo 927 do Código Civil. Porém, o artigo 6º, VI, estabelece que a responsabilidade dos agentes que integram a "cadeia de desenvolvimento e operação de sistemas de IA" deve se pautar no regime subjetivo, considerando "a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado". A parte final dá a entender que os agentes teriam uma obrigação de meio, o que afastaria inclusive um sistema de responsabilidade subjetiva com culpa presumida.

Nesse senário, surgem algumas questões: como se examinará a culpa (lato sensu) se a própria transparência no uso da IA é limitada pelo segredo industrial e comercial? Em que medida o princípio não inviabiliza a análise fática dos pressupostos para a imputação da responsabilidade? Ademais, como aferir a culpa de alguém em um processo baseado em aprendizado de máquina? Examinaremos quais dados foram apresentados à IA (e quem os apresentou) para que a IA aprendesse o comportamento que deu causa aos danos?

Mas há exceções à regra geral do regime subjetivo. Conforme o artigo 6º, §3º, do substitutivo, preserva-se o regime objetivo para as relações de consumo. Porém, a maior parte dos produtos de IA será utilizada por "destinatários finais" (veículos autônomos, robôs domésticos etc.), ou será implementada para o desenvolvimento de atividades econômicas como parte integrante dos serviços prestados a consumidores, o que voltaria a atrair a responsabilidade objetiva por fato do serviço (artigo 14 do CDC). Quando implementada por órgãos estatais (como a IA desenvolvida para preparar decisões judiciais ou auxiliar a tramitação processual), também se poderia falar em responsabilidade objetiva a partir do artigo 37, §6º, da Constituição. Nesse cenário, quanto sobra para a responsabilidade subjetiva? E, como visto, ainda que o regime subjetivo se aplique às relações civis, voltamos ao problema da análise da culpa. O resultado, ao que parece, é de mais insegurança.

A resolução recomenda, a seu turno, a responsabilidade objetiva (princípio 54) ou da gestão de riscos (princípio 55). A responsabilidade objetiva implicaria na adoção de um mecanismo de responsabilização similar ao dos produtos defeituosos, devendo-se provar o dano, o funcionamento incorreto do robô/sistema de IA (defeito) e o nexo causal entre ambos. Já a gestão de riscos envolve uma análise mais econômica do que propriamente jurídica, podendo se dar de modo preventivo ou, então, quando o risco se mostrar real, momento em que serão adotadas medidas para mitigar as consequências dele decorrentes. Em qualquer caso, a responsabilidade subjetiva foi excluída no modelo proposto pelo Parlamento Europeu [7].

Mas a Resolução vai além: propõe tratar a IA como um produto ou serviço ou criar um estatuto jurídico próprio, isto é, uma "pessoa eletrônica", "a casos em que os robôs tomam decisões autónomas ou em que interagem por qualquer outro modo com terceiros de forma independente" [8]. A sugestão de criar uma "pessoa eletrônica" é um dos pontos mais polêmicos da resolução e permite questionar, por exemplo, se isso serviria apenas para resolver o problema da imputação quando o dano for causado diretamente pela IA ou também para atribuir à IA direitos reconhecidos apenas aos seres humanos. Nesse caso, a IA deveria agir de modo a preservar a própria sobrevivência? Isso seria um valor a ser preservado no ordenamento jurídico?

Quanto à responsabilidade patrimonial, no caso da imputação ao fabricante, programador, operador, proprietário ou utilizador, o patrimônio afetado pelo pagamento de eventual indenização já seria o das pessoas naturais e/ou jurídicas, que também poderiam contratar um seguro. Porém, atribuir personalidade à IA só faria sentido se isso assegurar que eventual indenização será paga. Assim, também é preciso prever como a pessoa eletrônica adimpliria dívidas, o que demandaria o reconhecimento da possibilidade de uma pessoa eletrônica adquirir patrimônio em nome próprio, ou, então, estar vinculada a determinado conjunto de bens.

Nesse ponto, a resolução sugere a criação de um regime de seguros obrigatórios, à semelhança do que já ocorre com automóveis, que poderia ou não ser separado por categorias de robôs; ou de um fundo de compensação. Essas soluções não se limitariam a resolver a questão da responsabilidade patrimonial da pessoa eletrônica, viabilizando, também, a limitação da responsabilidade do fabricante, do programador, do proprietário e do utilizador, que poderiam contratar conjuntamente um seguro para garantir eventual indenização por danos causados pelo robô, ou, também, contribuir para um fundo de compensação voltado a esse propósito.

Além disso, a resolução recomenda que o fundo de compensação não seja apenas uma garantia subsidiária, no caso de o seguro não ter sido contratado ou se mostrar insuficiente (Princípio 59, b). Também se sugere deliberar se o fundo seria geral, para todos os robôs autônomos inteligentes, ou individual, vinculado ao robô a partir de um número de registro único, bem como se a contribuição seria pontual ou periódica (nesse caso, perdurando durante o tempo de vida do robô). Essas soluções poderiam trazer mais previsibilidade aos desenvolvedores, ainda que se adote um regime objetivo de responsabilidade, mas não foram discutidas no Brasil.

O fato de o PL/2020 nem sequer ter cogitado a criação de uma "pessoa eletrônica" não indica uma "falha", até porque, equiparar a IA a uma pessoa demanda um necessário e complexo debate sobre o conceito de pessoa em tempos de tão significativos avanços tecnológicos, especialmente para que, no meio do caminho, não se perca a noção de "pessoa humana" que foi tão profundamente desenvolvida desde a Grécia Antiga [9]. Porém, demonstra a superficialidade com que o Congresso pretende regulamentar um tema que impactará profundamente a sociedade nos próximos anos. A urgência atribuída ao tema parece indicar que estamos mais preocupados em sair na frente na regulamentação da IA do que em de fato compreender os seus efetivos impactos para elaborar uma lei de aplicação prática e bem delimitada. Até porque, o equilíbrio entre a humanidade e a IA deve depender de regulamentações nacionais? Será que uma regulamentação internacional não seria mais adequada, dado o fluxo de dados e o uso de produtos de IA importados?

A solução para a regulamentação brasileira não é, de nenhuma forma, copiar textos de lei estrangeira. Ocorre que os impactos da IA na humanidade perdurarão por anos e não podem ser resolvidos "em regime de urgência", muito menos sem a participação da sociedade e sem considerar pesquisas acadêmicas e as discussões já em curso em outros países. Os comentários à resolução europeia têm como principal objetivo demonstrar que o texto encaminhado à Comissão pelo Parlamento Europeu, muito mais robusto que o PL 21/2020, já foi editado há mais de quatro anos e, até o momento, ainda segue em discussão.

Se temos certeza de que a inteligência artificial mudará o presente e o futuro, qualquer iniciativa regulatória deve se pautar em análises proporcionais a essa mudança. Do contrário, promulgaremos uma lei que, na prática, resolverá pouco ou quase nada. Espera-se, por isso, que a tramitação do "marco legal" da IA no Senado não siga o mesmo caminho curto observado na Câmara dos Deputados e que as deliberações sobre uma lei tão importante sejam feitas com ampla participação da sociedade civil e de especialistas no tema.


[1] A exemplo, Russel e Norvig indicam quatro diferentes conceitos para a IA, que pode (i.) agir para imitar o comportamento humano (ii.) agir de modo "racional"; (iii.) raciocinar imitando o comportamento humano ou (iv.) raciocinar de modo "racional". (RUSSEL, S. J.; NORVIG, P. Artificial Intelligence: a modern approach. New Jersey: Prentice Hall, 1995. p. 5).

[2] HOFFMANN-RIEM, Wolfgang. Teoria geral do direito digital: transformação digital: desafios para o direito. FUHRMANN, Italo (trad.). Rio de Janeiro: Forense, 2021, p. 14.

[3] Ibidem, p. 15.

[4] Alan Turing alertou, ainda em 1950, que o aprendizado de máquina poderia resultar na máquina fazendo algo incompreensível aos humanos, pois os programadores poderiam prever, até certo ponto, o comportamento, mas estariam ignorantes sobre o processamento das informações na maior parte do tempo. In: TURING, A. M. COMPUTING MACHINERY AND INTELLIGENCE. Mind, New Series, v. 59, n. 236, p. 433–460, 1950. Disponível em: http://www.jstor.org/stable/2251299, p. 459.

[5] "T. Considerando que as Leis de Asimov têm de ser encaradas como dirigindo-se aos criadores, aos produtores e aos operadores de robôs, incluindo robôs com autonomia integrada e autoaprendizagem, uma vez que não podem ser convertidas em código de máquina".

[6] A questão foi discutida no caso Loomis v. State of Wisconsin, julgado em 2016 pela Suprema Corte de Wisconsin (EUA). Na decisão, a Corte afirmou a possibilidade de uso do software COMPAS para análise de risco de reincidência de acusados respondendo a processos criminais e pela preservação do sigilo do algoritmo em virtude do segredo comercial da desenvolvedora (à época, Northpointe Inc.).

[7] ANTUNES, H. S. Inteligência Artificial e Responsabilidade Civil: enquadramento. Revista de Direito da Responsabilidade, Portugal, v. 1, p. 139–154, 2019.

[8] UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)).

[9] CACHAPUZ, M. C. O conceito de pessoa e a autonomia de data (ou sobre a medida da humanidade em tempos de inteligência artificial). Revista de Direito Civil Contemporâneo, São Paulo, v. 6, n. 20, p. 63–85, 2019.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!