Opinião

A responsabilização de Frankenstein e a IA no século 21

Autores

  • Lucas Bezerra Vieira

    é advogado especialista em startups e novas tecnologias sócio do escritório QBB Advocacia coordenador da Setorial Nacional de Empreendedorismo e Inovação do Livres membro do Grupo de Estudos Avançados em Processo e Tecnologia da Fundação Arcadas (USP) e membro da comissão de Startups da OAB-SP

  • Ana Carolina de Morais Lopes

    é diretora presidente da Ágora Consultoria Jurídica membro do Grupo de Estudos e Pesquisas em Direito Digital e Direitos Culturais da Ufersa (Digicult).

5 de setembro de 2021, 11h12

"Frankenstein" é uma obra do início do século 19 que conta a história de um cientista, Victor Frankenstein, que, maravilhado pela ciência, dá vida a uma criatura singular, mas com traços humanos. Ocorre que, após ser desapontado pelo criador, por sua autonomia, a criatura revolta-se contra quem lhe deu vida, cometendo os mais atrozes atos.

Após dois séculos, esse romance mostra-se mais atual que nunca quando o assunto é inteligência artificial (IA) e a independência desta em relação ao seu operador, a fim de assemelhar-se cada vez mais ao ser humano, através de tecnologias como a machine learning, deep learning e o processamento de linguagem natural (PLN). Não há exemplo mais atual que os robôs humanoides feitos de tecnologia semiautônoma, como o Optimus da Tesla, os "frankensteins" do mundo moderno.

Não é fácil conceituar inteligência artificial, pois trata-se de uma inovação que repercute nos mais diversos campos do conhecimento, se apresentando sob formas díspares. Pioneiro no que tange ao estudo e desenvolvimento da IA, John McCarthy a define como sendo "a ciência e a engenharia de criar máquinas inteligentes, especialmente programas de computador inteligentes" [1].

Por sua vez, Lobo define a IA como "um ramo da ciência da computação que usando algoritmos definidos por especialistas é capaz de reconhecer um problema, ou uma tarefa a ser realizada, analisar dados e tomar decisões, simulando a capacidade humana" [2].

Genericamente, pode-se inferir que a IA trata-se de uma tecnologia que objetiva simular a inteligência humana, através de um ente não humano. Russel e Norving (2013, p. 25) [3], em seus estudos sobre o tema, agrupam as definições de IA em quatro categorias principais; são elas: 1) sistemas que pensam como humanos; 2) sistemas que agem como humanos; 3) sistemas que pensam racionalmente; 4) sistemas que agem racionalmente. É certo que as duas últimas tendem a ocupar cada vez mais o cenário da era digital vivenciada. Por racional, do latim rationalis, entenda a promoção de deduções de uma forma lógica, baseado na razão.

É isso, por exemplo, que as tecnologias de machine learning visam a permitir que os robôs ajam e pensem racionalmente através da análise de um conjunto de dados, tomando decisões com base nos dados fornecidos. Aqui tratam-se de ações a princípio previsíveis, buscando-se um resultado específico através do algoritmo empregado. Todavia, a discriminação algorítimica está aí para mostrar que, nem sempre, a IA irá seguir a risca o propósito para o qual foi desenvolvida. Isso se torna ainda mais visível no emprego de tecnologias de aprendizado profundo (deep learning).

No deep learning, investidas de reprodução do cérebro humano por intermédio de conexões neurais artificiais para irradiação de dados, as máquinas podem aprender a tomar decisões, pensando e agindo por si, como o homo sapiens, mesmo na ausência de qualquer instrução ou interferência humana, o que fomenta resultados, muitas vezes, imprevisíveis ao criador.

De tal modo, é certo que as máquinas, hodiernamente, estão habilitadas a tomar decisões inteligentes e por conta própria, podendo desviar das intenções pretendidas no momento de sua criação. E, por isso, muitos atrevem-se a dizer que algumas máquinas apresentam autonomia, necessitando, portanto, de uma regulação jurídica. Aliás, essa discussão já ganhou patamares internacionais, sendo objeto, inclusive, de ato normativo do Parlamento Europeu [4].

A referida resolução do Parlamento de 2017 foi importante no sentido de assentar teses até então lacunosas no que tange à responsabilização da IA por danos fomentados a terceiros. E, de acordo com a corte, "a responsabilização deve recair sobre o criador da IA, tendo em vista a falta de personalidade jurídica desta última, a depender ainda do nível de ensinamento e, por conseguinte, da autonomia proporcionados ao robô". Em outras palavras, quanto mais instruído e capaz de desenvolver ações que fogem ao controle do inventor, maior será a responsabilidade deste.

Contudo, diferentemente da diretriz europeia, no Brasil, a norma que visa a regulamentar o uso de IA, o Marco Legal da Inteligência Artificial (Projeto de Lei nº 21/2020), não proporciona balizas que norteiam a responsabilização dos chamados agentes de inteligência artificial, os quais, de acordo com o inciso V do artigo 9º do referido projeto legislativo, são responsáveis por toda e qualquer decisão tomada pelo sistema de inteligência artificial [5].

Nos termos do projeto legislativo, as pessoas físicas ou jurídicas e até entes despersonalizados que participem das fases de planejamento e design, coleta e processamento de dados e da construção do modelo, bem como aqueles que atuam na fase de monitoramento e operação do sistema de inteligência artificial, são os denominados de agentes de inteligência artificial.

Pelo texto proposto, é notório que ele não buscou distinguir sequer o grau de responsabilização entre o agente que cria a IA e aquele que a monitora. Se tomarmos como exemplo os carros autônomos, o fabricante, o autor da tecnologia e o passageiro (pessoa proprietária do veículo ou que utiliza-se do automóvel), pela legislação brasileira, deve ser declarada a imputação conjunta aos agentes por eventuais danos fomentados a terceiros.

Pioneira no que tange à regulamentação da circulação de veículos autônomos, a Alemanha alterou a sua lei de trânsito (Straßenverkehrsgesetz[6], em 2017, a fim de tratar também da responsabilização ante a condução dos veículos totalmente ou parcialmente autônomos. De acordo com a norma, todos os veículos devem ter uma espécie de caixa preta (black box[7], visando a auferir a responsabilidade do acidente, isto é, se o incidente foi causado por erros técnicos da máquina ou pelo passageiro do veículo. Além disso, mesmo com o pleno funcionamento da máquina deve sempre haver um condutor para tomar a condução do veículo em caso de falhas no sistema [8].

Via de regra, a teoria geral da responsabilidade civil brasileira enuncia que responde pelo dano aquele que lhe deu causa. Todavia, pela letra da possível lei percebe-se uma responsabilização unicamente solidária entre os agentes de inteligência artificial. Mas se o erro advém tão somente do fornecedor da IA, o qual deixou de prestar seu dever de cautela no que concerne à orientação de utilização do produto? Ou exclusivamente do proprietário/condutor do veículo, o qual poderia ter assumido o controle da máquina no momento anterior ao sinistro, mas assim não procedeu por vontade própria? Por último, e se o dano for decorrente do desenvolvimento dos sistemas de autoaprendizagem da máquina?

O Direito brasileiro consagra diferentes formas de responsabilização, a depender da vulnerabilidade do sujeito lesado. A título de exemplo, na seara consumerista, o fornecedor de produtos e serviços defeituosos responde objetivamente por lesões acarretadas aos consumidores. Isso não ocorre na esfera meramente civil, na qual se faz a necessidade da comprovação da culpa do agente.

Por isso, o texto do PL nº 26/2020 vai na contramão do ordenamento jurídico ao não imputar mecanismos de responsabilização diferenciada aos agentes de IA, a depender da ação que alavancou o dano, e também por não apontar excludentes de responsabilidade, tornando-os os únicos a responder pelos danos eventuais.

Isso mostra uma grande falha presente na novel legislação, fomentando os mais diversos efeitos práticos, que vão desde a dúvida sobre quem buscar para obter a reparação devida, a uma super-responsabilização, até uma imputação indevida.

Pondo em cheque essa capacidade de autonomia da IA, recentemente, em outubro de 2020, o Parlamento Europeu publicou uma resolução que estabelece as regras aplicáveis às ações de responsabilidade civil de pessoas singulares e coletivas contra operadores de sistemas de IA [9].

Essa normativa traz implicações de responsabilidade ao diferentes ao operador a depender do tipo de IA empregada  de alto risco ou autônomo. Outrossim, apresenta situações que permitem a isenção de responsabilidade caso o operador da IA demonstre que o prejuízo adveio por ação de terceiros pela ativação da IA sem o conhecimento ou autorização do operador, em casos de força maior, entre outros. Ato contínuo, delimita a responsabilização dada ao produtor, o qual, via de regra, deve ser imputada à legislação de proteção consumerista.

Dessarte, é certo que, a fim de promover a segurança jurídica das partes envolvidas  agentes de inteligência artificial e partes interessadas —, o PL deve seguir um caminho mais concreto, delimitando a responsabilização de cada agente de IA de acordo com o grau de contribuição destes para o dano acarretado às partes interessadas, assim como dos de operação, formas de exclusão de responsabilidade frente a ações específicas de terceiros.

Nesse ínterim, até a aprovação do texto da lei, um grande desafio será esmiuçar a responsabilização dos agentes da IA, visando a que a norma possa atingir realmente o fim ao qual se propõe: estabelecer direitos e deveres para o uso de inteligência artificial no Brasil.


[1] No original: "It is the science and engineering of making intelligent machines, especially intelligent computer programs."Disponível em: http://www-formal.stanford.edu/jmc/whatisai/node1.html. Acesso em 27 de agosto de 2021.

[2] LOBO, Luiz Carlos. Inteligência artificial, o futuro da medicina e a educação médica. Disponível em: https://www.scielo.br/j/rbem/a/PyRJrW4vzDhZKzZW47wddQy/?lang=pt&format=pdf. Acesso em: 27 de agosto de 2021.

[3] Stuart, Russell. NORVIG, Peter. Inteligência artificial. Trad. Regina Célia Simille. Rio de Janeiro. Elsevier.2013.p.25, apud LAGE, Fernanda de Carvalho. Manual de Inteligência artificial no direito brasileiro. Salvador. Editora JusPodivm, 2021. p.26.

[5] "Artigo 9º – São deveres dos agentes de inteligência artificial: […] V – responder, na forma da lei, pelas decisões tomadas por um sistema de inteligência artificial".

[6] Código da Estrada Alemão. Publicado em 03 de maio de 1909. Disponível em: <https://www.gesetze-im-internet.de/stvg/BJNR004370909.html>. Acesso em 30/08/2021.

[7] No original: "§63a Datenverarbeitung bei Kraftfahrzeugen mit hoch- oder vollautomatisierter Fahrfunktion.
[…] (2) Die gemäß Absatz 1 gespeicherten Daten dürfen den nach Landesrecht für die Ahndung von Verkehrsverstößen zuständigen Behörden auf deren Verlangen übermittelt werden. Die übermittelten Daten dürfen durch diese gespeichert und verwendet werden. Der Umfang der Datenübermittlung ist auf das Maß zu beschränken, das für den Zweck der Feststellung des Absatzes 1 im Zusammenhang mit dem durch diese Behörden geführten Verfahren der eingeleiteten Kontrolle notwendig ist. Davon unberührt bleiben die allgemeinen Regelungen zur Verarbeitung personenbezogener Daten".

[8] No original: "§1b. Rechte und Pflichten des Fahrzeugführers bei Nutzung hoch- oder vollautomatisierter Fahrfunktionen […]
(2) Der Fahrzeugführer ist verpflichtet, die Fahrzeugsteuerung unverzüglich wieder zu übernehmen.
1.wenn das hoch- oder vollautomatisierte System ihn dazu auffordert oder.
2.wenn er erkennt oder auf Grund offensichtlicher Umstände erkennen muss, dass die Voraussetzungen für eine bestimmungsgemäße Verwendung der hoch- oder vollautomatisierten Fahrfunktionen nicht mehr vorliegen".

[9] UNIÃO EUROPEIA. Parlamento Europeu. Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial. Disponível em: <https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_PT.html> Acesso em 30/08/2021.

Autores

  • é advogado, sócio do QBB Advocacia, coordenador da Setorial Nacional de Empreendedorismo e Inovação do Livres, ex-presidente da Comissão de Inovação e Startups da OAB/RN, membro do Grupo de Estudos Avançados em Processo e Tecnologia da Fundação Arcadas (USP).

  • é diretora presidente da Ágora Consultoria Jurídica, membro do Grupo de Estudos e Pesquisas em Direito Digital e Direitos Culturais da Ufersa (Digicult).

Tags:

Encontrou um erro? Avise nossa equipe!