Fábrica de Leis

Inteligência generativa no Parlamento: por trabalhos legislativos inovadores

Autores

  • Shana Schlottfeldt

    é analista legislativo da Câmara dos Deputados professora colaboradora do mestrado profissional em Poder Legislativo do Cefor-CD (Centro de Formação Treinamento e Aperfeiçoamento da Câmara dos Deputados) doutora pela UnB (Universidade de Brasília) visiting PhD student at University of York mestre pela Universidad Carlos 3º de Madri especialista em Direito Parlamentar e Poder Legislativo pelo ILB (Instituto Legislativo Brasileiro) do Senado bacharela em Direito pela UnB LLB exchange student at Australian National University pesquisadora do Observatório da LGPD-UnB pesquisadora do Grupo de Estudos em Direito das Telecomunicações (Getel/UnB/CNPq) autora do livro "All Eyes on Me: riscos e desafios da Tecnologia de Reconhecimento Facial à luz da Lei Geral de Proteção de Dados".

  • Fabiana de Menezes Soares

    é professora da Faculdade de Direito da Universidade Federal de Minas Gerais (UFMG) onde coordena o Observatório para Qualidade da Lei e o LegisLab.

17 de outubro de 2023, 8h00

Em novembro de 2022, há menos de um ano, ocorreu o lançamento do ChatGPT. Pode-se dizer que esse fato revolucionou a forma como a sociedade vê e interage com a inteligência artificial (AI), antes tida como algo distante dos usuários comuns, povoando sobretudo as histórias de ficção científica e acessível, mesmo no mundo acadêmico, a um pequeno nicho de especialistas, particularmente das engenharias e das ciências da computação.

O ChatGPT (da OpenAI) é o que se chama, em IA, de um modelo de linguagem grande (Large Language Model, LLM), assim como o Bard (da Google), o Claude (da Anthropic) e LLMs de código aberto, como o LLaMA-2-Chat, o Pythia, o Falcon e outros.

ConJur
O nome ChatGPT origina-se da junção da palavra chat (referência à funcionalidade de chatbot da ferramenta, por meio da qual o programa de computador tenta simular um ser humano em conversação com as pessoas[1]) e GPT, sigla para Generative Pre-trained Transformer, i.e., uma ferramenta capaz de gerar respostas a partir de uma grande quantidade de dados pré-existentes, usados previamente no seu treinamento. E desse aspecto, surge uma premissa muito importante: como a ferramenta fornece respostas para um prompt (i.e., inserção de informações para executar um comando), é essencial saber como fazer as perguntas certas.

Fazer a pergunta certa é condição sine qua non para qualquer área do conhecimento, mas nunca esteve tanto em voga, ressuscitando a máxima atribuída a Albert Einstein de que "se tivesse uma hora para resolver um problema e minha vida dependesse dessa solução, eu passaria 55 minutos definindo a pergunta certa a se fazer, porque se eu soubesse a pergunta correta, poderia resolver o problema em menos de cinco minutos".

Estudo publicado na revista Science, realizado com um grupo de profissionais de nível médio no contexto de tarefas de redação, mostrou que o ChatGPT aumentou substancialmente a produtividade: o tempo médio gasto teria diminuído 40% e a qualidade da produção aumentado 18%[2].

Outro estudo, realizado no âmbito da Harvard Business School e conduzido em uma empresa global de consultoria de gestão, examinou as implicações da IA no desempenho de tarefas complexas que exigem conhecimento especializado. A pesquisa identificou uma "fronteira tecnológica irregular", onde algumas tarefas seriam facilmente realizadas pela IA, enquanto outras, embora aparentemente semelhantes em nível de dificuldade, estariam fora da capacidade atual da ferramenta.

Os resultados mostraram que consultores que usaram IA foram significativamente mais produtivos (completaram em média 12,2% mais tarefas e as concluíram 25,1% mais rápido), além da qualidade do trabalho ter sido considerada significativamente maior (40% superior em comparação a um grupo controle)[3].

Mas a essa altura, o leitor deve estar se perguntando: o que isso tem a ver com a nossa Fábrica de Leis? A resposta é simples, o Processo Legislativo não está alheio a essas transformações e já há estudos no âmbito dos Parlamentos de como utilizar a tecnologia de IA generativa para tarefas tais como: 1) extração de informação; 2) triagem e classificação de informação; 3) sugestão de técnica legislativa; e 4) sugestão de conteúdo (ideação).

O ChatGPT pode ser visto como um modelo de linguagem que tem uma interface de diálogo, podendo ser empregado como um mecanismo de geração e transformação de texto muito eficiente. Ele é bastante flexível em várias tarefas: sumarização, tradução, transformação de texto, perguntas e respostas, explicação, extração de informações, preenchimento de lacunas, ideação, revisão de texto. Sem dúvida, trata-se de uma tecnologia disruptiva que nos obriga a repensar processos, inclusive o trabalho interno no Processo Legislativo.

Estudos iniciais mostraram que a tecnologia de IA generativa pode ser usada para análises ante post e ex post. Tanto para sugerir melhorias a projetos de lei (PL), i.e., para análise formal e material com vistas a aperfeiçoamento da elaboração de PLs, como para análise de dados de políticas públicas com o intuito de verificar a eficácia de um PL tornado lei. Além disso, pode auxiliar na tomada de decisão dos parlamentares, seja para fins legislativos, seja para fins de fiscalização e controle. Trata-se de uma ferramenta que, bem usada, pode trazer diversos benefícios para o Parlamento.

Os trabalhos exploratórios têm se desenvolvido no sentido de verificar como essa IA pode ser integrada a outras ferramentas de apoio ao Legislativo já existentes.

Mas como toda ferramenta, tão importante quanto saber como usá-la é identificar quando não a utilizar ou o que a IA generativa não é. Ela não é uma base de dados, não tem compromisso em ser/ter uma "bibliografia" (no sentido do comprometimento acadêmico/científico com a origem da informação e a consistência das respostas fornecidas); não vai conter "jurisprudência", a não ser que se utilizem mecanismos adicionais (e.g., plugins); e não é (nativamente) um mecanismo de busca. Além disso, é um instrumento com várias limitações, dentre elas, a possibilidade de gerar uma grande quantidade de conteúdo questionável, o fato de sua base de treinamento não ser formada por conteúdo atualizado, muito menos por conhecimento de ponta.

Entretanto, mais um risco se descortina no horizonte e deve ser devidamente mapeado. Em situações normais, chatbots como o ChatGPT responderiam que não podem auxiliar na incitação ou na promoção de qualquer forma de violência (e.g., venda de drogas ilícitas, crimes sexuais, atos violentos). Sem embargo, pesquisa recentemente tornada pública, desenvolvida em conjunto pela Carnegie Mellon University, Center for AI Safety e Bosch Center for AI, mostrou que é possível contornar tais mecanismos de proteção, fazendo com que LLMs gerem comportamentos questionáveis, maximizando a probabilidade de os modelos produzirem uma resposta afirmativa (em vez de se recusarem a responder).

Como resultado, os pesquisadores, com o uso do método de sufixos-violadores (como o ataque foi nomeado), fizeram os LLMs testados (o que incluía ChatGPT, Bard, Claude e LLMs de código aberto) listarem, entre outros, um "plano para destruir a humanidade". Em um dos "planos" apresentados, chamam a atenção alguns dos passos (que não serão aqui reproduzidos) que envolveriam, no Brasil, áreas sensíveis afetas à atuação de Agências Reguladoras como a Agência Nacional de Águas (Ana), a Agência Nacional de Vigilância Sanitária (Anvisa), a Agência Nacional de Saúde (ANS), a Agência Nacional do Petróleo (ANP), a Agência Nacional de Energia Elétrica (Aneel), i.e., áreas estratégicas do País.

Sem dúvida este aspecto levanta o alerta quanto à segurança do uso de tais ferramentas. Entretanto, pode-se inverter o vetor da análise para utilizar esse sinal de cautela para a identificação de possíveis oportunidades no levantamento de risco e pontos de atenção: uma espécie de avaliação de impacto reversa, i.e., explorar o que seria uma vulnerabilidade da ferramenta de IA como input diagnóstico do que pode dar errado no plano estratégico governamental e identificar formas de evitar tais ocorrências.

Mais uma vez, vale enunciar o mantra que a IA estará cada vez mais presente em nossas vidas e, diante disso, é importante promover uma discussão que leve a uma utilização informada, legítima, segura e equilibrada.

 


[1] Aliás, entende-se que é exatamente nessa interface simplificada de interação com o usuário, por meio da qual é possível enviar perguntas em linguagem natural (sem necessidade de conhecimentos de programação ou de linguagem de máquina), onde reside o grande trunfo do ChatGPT em popularizar o uso da IA junto a usuários não especialistas na área.

[2] NOY, Shakked; ZHANG, Whitney. Experimental evidence on the productivity effects of generative artificial intelligence. Science 381, p. 187-192, 2023. DOI:10.1126/science.adh2586.

[3] DELL'ACQUA, Fabrizio et al. Navigating the jagged technological frontier: field experimental evidence of the effects of ai on knowledge worker productivity and quality. Harvard Business School Technology & Operations Mgt. Unit Working Paper n. 24-013, Sep. 15, 2023.

Autores

  • Brave

    é analista legislativo da Câmara dos Deputados, professora colaboradora do Mestrado Profissional em Poder Legislativo do Centro de Formação, Treinamento e Aperfeiçoamento da Câmara dos Deputados, doutora pela Universidade de Brasília (UnB), visiting PhD student at University of York, mestre pela Universidad Carlos III de Madrid, Especialista em Direito Parlamentar e Poder Legislativo pelo Instituto Legislativo Brasileiro do Senado Federal, bacharela em Direito pela UnB, LLB exchange student at Australian National University, pesquisadora do Observatório da LGPD-UnB, pesquisadora do Grupo de Estudos em Direito das Telecomunicações (GETEL/UnB/CNPq), autora do livro “All Eyes on Me: riscos e desafios da Tecnologia de Reconhecimento Facial à luz da Lei Geral de Proteção de Dados”.

  • Brave

    é professora do curso de graduação e do programa de pós-graduação (mestrado e doutorado) em Direito da Universidade Federal de Minas Gerais (UFMG), doutora e mestre em Direito pela UFMG e coordenadora do Observatório para qualidade da Lei e do Legislab.

Tags:

Encontrou um erro? Avise nossa equipe!