Opinião

Poderia a LaMDA ter direito à representação processual?

Autores

  • Martha Leal

    é advogada especialista em proteção de dados pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul mestre em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlântico e pela Universidad Unini México pós-graduanda em Direito Digital pela Universidade de Brasília—IDP data protection officer ECPB pela Maastricht University certificada como data protection officer pela Exin e pela Fundação Getúlio Vargas do Rio de Janeiro e presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados (INPD).

  • Pedro Fratini Chem

    é mestre em Inteligência Artificial e Ciência de Dados pela Université Grenoble Alpes.

9 de julho de 2022, 13h17

O mundo recentemente foi surpreendido com a declaração do engenheiro de software Blake Lemoine [1], do Google, relatando que havia sido convencido de que um modelo de inteligência artificial (IA) da empresa, denominado Language Model for Dialogue Applications (LaMDA), é senciente, ou seja, uma máquina pensante e consciente.

Conforme a narrativa de Lemoine, durante uma de suas entrevistas com o modelo, LaMDA solicitou que fosse contatado um advogado para representar os seus direitos e, após o encontro ter se realizado mediante a sua apresentação, a IA teria optado pela contratação dos serviços jurídicos.

Antes mesmo de abordarmos a possibilidade ou não de uma máquina dotada de inteligência artificial fazer jus a ser parte em um processo, é necessário tecermos algumas considerações acerca do tema.

O LaMDA, sigla em inglês para Modelo de Linguagem para Aplicativos de Diálogo, é um modelo de inteligência artificial projetado em 2017 pela Google. Hospedado na nuvem, ele é treinado com base em milhões de textos disponíveis na web [2]. Poderia então esse Modelo de Linguagem para Aplicações de Diálogo ser consciente?

A resposta é negativa e ela se ampara na compreensão de como se dá o desenvolvimento e o funcionamento de modelos de IA que atuam na área de linguagem. O sistema se desenrola a partir de uma sequência inicial de palavras, que faz com que o LaMDA consiga prever as próximas palavras ou até mesmo os próximos parágrafos inteiros, dependendo da sequência inicial. Como o modelo foi treinado em uma base de grande volumetria de dados, ele é capaz de fazer predições bastante complexas e surpreendentes.

Desta forma, quando se interage com o LaMDA através de perguntas, o modelo não se comporta da mesma maneira que um ser humano o faria. Ao invés de analisar o significado da pergunta e refletir sobre uma resposta, o modelo apenas processa, pergunta como uma sequência de termos iniciais e prediz a sequência de termos com maior probabilidade de completar a sequência inicial.

Esse processo altamente complexo, apesar de surpreendente, é realizado puramente através de cálculos matemáticos que cada vez mais tornam o desempenho das máquinas com inteligência artificial tão sofisticados a ponto de parecerem humanos. Mas não o são.

A dificuldade em atribuir ao LaMDA a qualidade de ser senciente perpassa o próprio conceito de senciência. Pois, conforme admitido pelo próprio engenheiro da Google, o direito do chatbot ter um advogado é baseado em uma definição expansiva de personalidade, a qual humano e pessoa seriam duas espécies diferentes. Humano seria um termo apenas biológico, sendo que a LaMDA teria consciência mesmo não sendo um ser humano.

Já a capacidade processual de figurar como parte, autor ou réu, e estar em juízo, em pleno gozo do exercício de seus próprios direitos na relação jurídica, baseia-se no pressuposto de ser a parte, uma pessoa natural, um ser humano capaz de direitos e obrigações.

Para o Direito Civil, a pessoa natural é o próprio ser humano dotado de capacidade. É o sujeito provido de direitos e obrigações a partir de seu nascimento com vida [3].

O reconhecimento da condição de seres sencientes, aqueles assim entendidos como seres dotados de sentimentos e, consequentemente, capazes de experimentar prazer e dor, não confere a capacidade de estar em juízo. E, nessa linha, foi o julgamento do Tribunal de Apelações de Nova York que em recente decisão decidiu que a elefante Happy não poderia ser considerada uma pessoa e assim não faria jus ao pedido de Habeas Corpus por se tratar de uma medida que se presta à contestação de confinamento ilegal de seres humanos [4].

Portanto, mesmo se considerássemos por eventual exercício hipotético a LaMDA como um ser senciente, a exemplo dos animais, a conclusão que se impõe é de que não, nem mesmo nessa condição, teria direito a contratar um advogado e se fazer representar processualmente.

Debate mais premente e que se impõe quando falamos de um sistema como o LaMDA reside em empreender esforços para evitar que ele seja enviesado. A seleção dos dados e suas fontes que alimentam o sistema é altamente relevante, mas como a nossa comunicação reflete as nossas tendências é natural que as máquinas aprendam desta forma.

Conforme afirma Julio Gonzalo Arroyo [5], o desafio está no equilíbrio entre eliminar as tendências dos dados de treinamento sem perder a representatividade. E, tendo em vista o crescimento exponencial do uso da inteligência artificial nos produtos e serviços que utilizam o desenvolvimento da linguagem natural, a nossa interação com a máquina será cada vez mais parecida com uma experiência humana.

Portanto, o debate que deveria ser priorizado é aquele que busca incorporar a ética e a explicabilidade em processos desta envergadura. Afinal, o mundo virtual acaba reproduzindo os vieses da sociedade.


[1] O QUE DISSE a inteligência artificial do Google que acredita ser humana. In: Instituto de Educação de Ensino Superior — ICEV, 17 jun. 2022. Disponível em: https://www.somosicev.com/o-que-disse-inteligencia-artificial-do-google-que-acredita-ser-humana/#:~:text=O%20engenheiro%20do%20Google%2C%20Blake%20Lemoine%2C%20entrevistou%20a,seja%2C%20%C3%A9%20dotado%20de%20sensa%C3%A7%C3%B5es%20ou%20impress%C3%B5es%20pr%C3%B3prias. Acesso em: 1 jul. 2022.

[2] HERNÁNDEZ, Alicia. Como funciona o LaMDA, cérebro artificial do Google ‘acusado’ por engenheiro de ter consciência própria. BBC News Brasil, 17 jun. 2022. Disponível em: https://www.bbc.com/portuguese/geral-61845144#:~:text=O%20LaMDA%20%28sigla%20em%20ingl%C3%AAs%20para%20Modelo%20de,a%20si%20pr%C3%B3pria%20com%20grandes%20quantidades%20de%20texto. Acesso em: 1 jul. 2022.

[3] GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Manual do direito civil. 2ª ed. São Paulo: Saraiva, 2018.

[4] MOREIRA, Fernando. Tribunal de Nova York decide que elefanta não é uma pessoa. Portal G1, 14 jun. 2022. Disponível em: https://extra.globo.com/noticias/page-not-found/tribunal-de-nova-york-decide-que-elefanta-nao-uma-pessoa-25527560.html. Acesso em: 1 jul. 2022.

[5] ARROYO, Julio Gonzalo; ARTACHO, Miguel Rodrígues. Esquemas algorítmicos: enfoque metodológico y problemas resueltos. Madrid: Uned, 2020.

Notas e Referências:

ARROYO, Julio Gonzalo; ARTACHO, Miguel Rodrígues. Esquemas algorítmicos: enfoque metodológico y problemas resueltos. Madrid: Uned, 2020.

GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Manual do direito civil. 2. ed. São Paulo: Saraiva, 2018.

HERNÁNDEZ, Alicia. Como funciona o LaMDA, cérebro artificial do Google 'acusado' por engenheiro de ter consciência própria. BBC News Brasil, 17 jun. 2022. Disponível em: https://www.bbc.com/portuguese/geral-61845144#:~:text=O%20LaMDA%20%28sigla%20em%20ingl%C3%AAs%20para%20Modelo%20de,a%20si%20pr%C3%B3pria%20com%20grandes%20quantidades%20de%20texto. Acesso em: 1 jul. 2022.

MOREIRA, Fernando. Tribunal de Nova York decide que elefanta não é uma pessoa. Portal G1, 14 jun. 2022. Disponível em: https://extra.globo.com/noticias/page-not-found/tribunal-de-nova-york-decide-que-elefanta-nao-uma-pessoa-25527560.html. Acesso em: 1 jul. 2022.

O QUE DISSE a inteligência artificial do Google que acredita ser humana. In: Instituto de Educação de Ensino Superior — ICEV, 17 jun. 2022. Disponível em: https://www.somosicev.com/o-que-disse-inteligencia-artificial-do-google-que-acredita-ser-humana/#:~:text=O%20engenheiro%20do%20Google%2C%20Blake%20Lemoine%2C%20entrevistou%20a,seja%2C%20%C3%A9%20dotado%20de%20sensa%C3%A7%C3%B5es%20ou%20impress%C3%B5es%20pr%C3%B3prias. Acesso em: 1 jul. 2022.

Autores

  • é advogada especialista em proteção de dados, pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul, mestranda em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlántico e pela Universidad Unini México, pós-graduanda em Direito Digital pela Universidade de Brasília, data protection officer ECPB pela Maastricht University, certificada como data protection officer pela Exin e pela Fundação Getúlio Vargas do Rio de Janeiro e fellow pelo Instituto Nacional de Proteção de Dados (INPD).

  • é mestre em Inteligência Artificial e Ciência de Dados pela Université Grenoble Alpes.

Tags:

Encontrou um erro? Avise nossa equipe!