Interesse Público

Inteligência artificial, ChatGPT e experimentação administrativa

Autor

  • Paulo Modesto

    é professor da Faculdade de Direito da Universidade Federal da Bahia (UFBA) presidente do Instituto Brasileiro de Direito Público membro do Ministério Público da Bahia da Academia de Letras Jurídicas da Bahia e do Observatório da Jurisdição Constitucional da Bahia.

9 de fevereiro de 2023, 8h42

2022 será lembrado como o ano da popularização da inteligência artificial. ChatGPT, DALL-E-2, Midjourney, Stable Diffusion, Copysmith, Jasper, Synthesia, D-id, Descript, Rytr são alguns serviços que alcançaram o grande público no ano passado e surpreenderam pela versatilidade e utilidade. Mas qual o papel dos serviços de inteligência artificial na Administração Pública? Quais funções podem cumprir em serviços públicos e quais riscos oferecem? O direito público pode ser flexível e adotar a inteligência artificial em programas de experimentação administrativa? Exploro algumas dessas questões à luz de duas dimensões: a experimentação regulatória e experimentação executiva.

Spacca
Inteligência artificial: um conceito ainda em busca de lei geral
Não há conceito legal para inteligência artificial no direito brasileiro. O Projeto de Lei 21/2020, que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA), foi aprovado na Câmara dos Deputados em 29/9/2021, mas ainda aguarda votação no Senado para ser sancionado e convertido em lei. Em 2022, o Senado instituiu Comissão de Juristas destinada a subsidiar a elaboração de substitutivo aos PL's 5.051, de 2019, 21, de 2020, e 872, de 2021, voltados a estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

No artigo 2º, do PL 21, aprovado na Câmara, define-se "sistema de inteligência artificial" como "o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou decisões, e que utiliza, sem a elas se limitar, técnicas como: I – sistemas de aprendizagem de máquina (machine learning), incluída aprendizagem supervisionada, não supervisionada e por reforço; II – sistemas baseados em conhecimento ou em lógica; III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e de otimização".[[1]]

O PL 21 afasta do conceito de inteligência artificial "os processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade do sistema de aprender a perceber e a interpretar o ambiente" (§§ único, artigo2º).

Na minuta de substitutivo sugerida pela Comissão de Juristas do Senado, "sistema de inteligência artificial" é definido como o "sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real". [[2]]

A partir dessas propostas normativas, sugiro um conceito sintético para a IA, flexível aos avanços da tecnologia. Para os fins deste texto, inteligência artificial refere a sistemas computacionais caracterizados pela capacidade de recolher ou analisar dados desestruturados, estruturá-los com algum grau de autonomia, adaptá-los a contextos, ambientais ou narrativos, e gerar conteúdos que emulam os resultantes de capacidades da inteligência humana.  

Nos sistemas de IA há emprego de tecnologias de aprendizado automático (machine learning), supervisionadas ou não, apoiadas por métodos de aprendizagem profunda (deep learning), consistentes em instruções de inferência e dedução, reconhecimento de imagens, processamento de linguagem natural e detecção de padrões. O que surpreende na inteligência artificial é a capacidade de entregar resultados organizados e variados a partir de informações desestruturadas, sensíveis ao contexto, ao ambiente e ao modo de enunciação.

Sistemas de IA são capazes de entender e responder a mensagens escritas em linguagem natural, simulando uma pessoa comum, e podem gerar automaticamente conteúdo inédito, inclusive com valor estético [[3]], emular vozes reais [[4]], identificar em imagens problemas graves de saúde (como o câncer de mama) [[5]], gerenciar estoques de remédios [[6]], promover a separação e classificação de processos judiciais digitais [[7]], articular o monitoramento de sensores para a prevenção de acidentes em obras [[8]], realizar o reconhecimento facial de indivíduos, de placas de veículos e de infrações de trânsito [[9]], criar novas substâncias com eventuais propriedades medicinais [[10]], entre diversos outros serviços automatizados diretamente ou por integração a aplicativos, serviços e redes.

Porém, a autonomia operativa dos sistemas de IA é igualmente capaz de produzir resultados graves e problemáticos em face do direito. Exemplo: assimilar e reproduzir informações e classificações com vieses proibidos (racistas ou xenófobos, por exemplo, reproduzindo preconceitos humanos) [[11]]; apoiar a produção de falsas provas, "fake news" e "deep fakes" (vídeos falsos, perfis falsos, vozes falsas, imagens de registros artificiais, porém com aparência realista) [[12]]; e até mesmo facilitar a criação de malwares direcionados, voltados a indivíduos específicos ou instalações determinadas de governos, com capacidade de atacarem sistemas completos de gerenciamento e controle [[13]].  Esses e outros problemas ganham relevância com a popularização dos serviços de IA.

CHATGPT e a explosão dos aplicativos populares de IA
ChatGPT é um chatbot de IA, isto é, um software de inteligência artificial capaz de simular uma conversa em tempo real, lançado ao público em 30/11/2022, desenvolvido pela empresa OpenAI (chat.openai.com).

Tornou-se viral em pouco tempo devido à capacidade de responder ao diálogo proposto por usuários com textos fluidos de múltiplos conteúdos (mensagens curtas, ensaios escolares, poemas, piadas, códigos de computador, roteiros de vídeos ou viagens, receitas de alimentos, textos de ficção etc.). Em janeiro de 2023, estima-se que tenha atingido 100 milhões de usuários ativos mensais dois meses após o lançamento, tornando-se o aplicativo de consumidor de crescimento mais rápido da história. [[14]]. O acesso é gratuito, porém a paralisação do acesso é comum por congestionamento, tendo sido aberta recentemente a inscrição para uma versão paga (ChatGPT Plus) com garantia de acesso. A OpenAI vale-se de apoio financeiro da Microsoft Corp, que pretende incorporá-lo ao buscador Bing e a outros produtos da empresa.

Embora seja de grande utilidade para pequenos textos, geração de insights e informações úteis, o ChatGPT foi treinado com dados até o final de 2021, não possui acesso a informações posteriores e não divulga a sua base de dados de forma transparente. Segundo declara, seus arquivos não acessam a internet, sendo a sua base alimentada exclusivamente pela OpenAI. Os textos que produz não indicam fontes de referência e, quando estas são solicitadas, é usual que o programa invente referências fantasiosas ou inexistentes. Porém, confirmo que a sua capacidade de produzir piadas é muito boa.

Para enfrentar o OpenAI e a Microsoft, o Google recentemente divulgou o Bard, com funções semelhantes ao ChatGPT, mas com base de dados integrada ao buscador da internet, Google Maps e tradutor, disponível no momento apenas para testadores selecionados. Também a Alibaba e a empresa de tecnologia Baidu anunciaram projetos de chatbot de IA.

É impossível saber qual dos sistemas computacionais predominará no futuro. No entanto, a resposta entusiasmada do público ao ChatGPT, percebido como uma evolução disruptiva no processamento da linguagem natural, provocou, no mês de dezembro de 2022 e janeiro de 2023, uma autêntica corrida pelo lançamento de programas de inteligência artificial. Centenas de novos serviços foram lançados ao público e a inteligência artificial deixou de ser considerada matéria de ficção científica.

Experimentação regulatória e experimentação executiva da IA
Experimentação regulatória é uma abordagem de regulamentação, suportada por lei, que autoriza a Administração Pública a realizar o teste de diferentes opções regulatórias em um ambiente controlado antes de adotar uma disciplina final aplicável a determinada entidade ou a estender a regulação de forma ampla a várias entidades ou setores.

A vantagem é permitir que as autoridades administrativas obtenham evidências sobre qual disciplina normativa é mais eficiente em atingir os objetivos pretendidos, quando mais de uma opção regulatória for possível. A experimentação regulatória permite que a regulação seja adaptada a ambientes específicos e até a determinados eventos temporários. Pode-se testar novas tecnologias e práticas, a exemplo de sistemas computacionais de IA, e avaliar custo-benefício, descobrir discriminações algorítmicas, estimar a resposta dos usuários, entre outros aspectos, antes da generalização ou adoção final da nova disciplina. Na experimentação regulatória há sempre “ensaios de microssistemas normativos especiais” [[15]]. Neste caso os sistemas de IA constituem objeto da experimentação regulatória.

Porém, é interessante perceber que a IA pode ser tanto objeto quanto instrumento da experimentação regulatória.

Como instrumento, a IA pode contribuir em processos de experimentação de várias formas, por exemplo:

  1. Análise de dados – a IA pode ajudar a analisar grandes quantidades de dados para identificar padrões e tendências e facilitar a análise das diferentes abordagens regulatórias, inclusive quantificando a eficácia dos regulamentos existentes e estimando o impacto de possíveis mudanças regulatórias;
  2. Simulação – a IA pode ser usada para simular diversos cenários regulatórios e avaliar sua eficácia no cumprimento de objetivos, inclusive com simulações de impactos econômicos, ambientais e sociais;
  3. Monitoramento – a IA pode ser usada para monitorar a conformidade e identificar violações ou reações, isto é, realizar a análise automatizada de dados de vigilância e medição de reações.   

No plano da experimentação executiva, isto é, no plano da administração ativa voltada ao atendimento direto do público, as aplicações de IA são inumeráveis, pois alcançam áreas como saúde, educação, pesquisa científica, defesa civil e militar, desenvolvimento tecnológico, assistência social, previdência, entre muitas outras. No âmbito das atividades-meio, transversais a esses setores, pode-se empregar experimentalmente sistemas de IA, entre muitas outras funções, para:

  1. Classificação automática de processos – ferramentas de gerenciamento podem ajudar a organizar e priorizar casos, inclusive com análise documental automatizada;  
  2. Prevenção de fraude – sistemas de IA podem detectar padrões suspeitos em dados financeiros, administrativos ou geográficos, que alertem para fraudes;
  3. Geração automática de pareceres jurídicos e ofícios instrutórios – ferramentas de identificação de demandas podem rastrear em processos digitais documentos faltantes e informações complementares necessárias à decisão administrativa.

É fundamental observar que a experimentação regulatória e a utilização de IA devem ser empregadas de maneira estratégica e controlada. É essencial entender o contexto e as nuances do setor regulado e garantir que as regulamentações sejam coerentes e equitativas para todos os envolvidos. A forma de interagir entre a Administração e o usuário pode ser alterada, quando há flexibilidade legal, mas os conteúdos de aplicação devem ser os admitidos em lei e observar o princípio da igualdade, sendo diferenciações no modo ou na forma de aplicação justificadas mediante o emprego do critério da aleatoriedade na escolha da base de aplicação experimental. É também importante avaliar os resultados quanto ao atingimento dos objetivos legais.

Nada disso é ficção. Há exemplos concretos em experimentação regulatória e o uso da IA aplicados para melhorar a gestão pública no Brasil. A Agência Nacional de Telecomunicações (Anatel), por exemplo, firmou acordo com a Agência Brasileira de Desenvolvimento Industrial (ABDI) para a "realização de testes do uso empresarial de redes privadas de tecnologia 5G, com o objetivo do desenvolvimento de projetos-piloto para experimentação e validação de faixas de frequências, larguras de faixas necessárias, requisitos de taxas de transmissão e demais KPI (Key Performance Indicators) para aplicação de tecnologia IMT — como o 5G, por exemplo — em ambientes selecionados". A partir dessas experiências procurou melhorar o processo de discussão regulatória com "informações sobre faixas de frequências mais adequadas e larguras de faixas necessárias para diversas aplicações em redes privativas implementando tecnologias IMT, em especial 5G". [[16]]

No plano da experimentação executiva, há diversas aplicações no Brasil de Internet das Coisas (IoT), associadas a sistemas de inteligência artificial. A IoT permite a conexão de sensores físicos à internet e seu controle por IA para resposta ágil a problemas urbanos comuns (vg. controle ambiental da qualidade do ar, vazamentos de água potável, controle do trânsito, entre muitos outros). Essas análises podem indicar medidas de controle da poluição emergenciais, como o controle do tráfego de veículos ou a determinação da redução de emissões de gazes pela indústria. [[17]]   

Palavras que não encerram
Embora ainda esteja pendente de aprovação a lei geral sobre o desenvolvimento e a aplicação da IA no Brasil, não estamos desprovidos de normas aplicáveis a abusos e situações de risco existentes em cadastros gerenciados por IA. Temos a Lei Geral de Proteção de Dados (Lei 13709/2018, alterada pela Lei 13.853/2019), especialmente o seu artigo 20; o Código de Defesa do Consumidor (Lei nº 8.078/1990), nomeadamente o seu artigo 43; a Lei Geral de Telecomunicações (Lei nº 9.472/1997), artigo 3º, V e IX; artigo 72, § 2°; o Código Civil (Lei nº 10.406/2002), com destaque para os artigos 11 a 21, que enunciam direitos da personalidade; a Lei do Cadastro Positivo (Lei 12.414/2011), nomeadamente artigo 3º, § 3º; 4º, 5º, 6º e 7º; a Lei de Acesso à Informação (Lei 12.527/2011), artigo 31; o Marco Civil da Internet (Lei nº 12.965/2014), com inúmeras disposições de proteção aos direitos dos usuários e, sobretudo, temos as normas fundamentais da Constituição de 1988, sobre a inviolabilidade da intimidade e da vida privada (artigo 5º, X); habeas data (artigo 5º, LXXII) e direito ao sigilo de comunicações (artigo 5º, XII). A aplicação harmônica dessas disposições, à falta de um marco geral sobre IA, exigirá inteligência hermenêutica e capacidade regulatória apurada das agências governamentais. Mas também poderá enriquecer-se com instrumentos do direito administrativo da experimentação.

A inteligência artificial não é o futuro. Ela é o presente, oculta e visível, e embora adote múltiplas linguagens de aprendizado e predição, apresenta capacidade de compreender o ambiente e oferecer de forma adaptativa respostas em termos conversacionais, estatísticos e de monitoramento úteis ao cotidiano. E isso tanto pode enganar, provocar graves prejuízos, quanto economizar recursos escassos e multiplicar a produtividade do trabalho em atividades as mais diversas, inclusive na administração pública. Imperativo é encontrar equilíbrio entre o uso da IA e a proteção do direito fundamental à privacidade e aos direitos humanos, assegurando transparência, igualdade e regulamentações adequadas para o uso positivo da IA.


[3] Basta ver a repercussão da obra “Unsupervisioned”, nova estrela do MoMA, em Nova York:  https://www.elconfidencial.com/tecnologia/novaceno/2022-11-21/inteligencia-artificial-arte-moma_3526284/

[4] Por exemplo, Elevenlabs (https://beta.elevenlabs.io) ou VALL-E, da Microsoft (https://valle-demo.github.io/).

[5] McKinney, S.M., Sieniek, M., Godbole, V. et al. International evaluation of an AI system for breast cancer screening. Nature 577, 89–94 (2020). https://doi.org/10.1038/s41586-019-1799-6

[7] Ver “Projeto Victor”,  parceria  do  STF com a Universidade de Brasília, destinado a criação de “machine learning” para análise dos recursos recebidos pelo STF quanto aos temas de repercussão geral: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori=1

[9] Entre inúmeros, cf. Programa “Cerco Inteligente”, do Governo do Espírito Santo: https://prodest.es.gov.br/Not%C3%ADcia/cerco-inteligente-ja-esta-em-funcionamento

[11] Sobre o tema, ver o documentário da Netflix Coded Bias (2020), que apura erros e falhas em algoritmos de reconhecimento facial, e VALLE, Vanice. Administração Pública, viés algoritmico e desvio de finalidade: existe conciliação possível?, disponível em https://www.academia.edu/89795953

[12] Por exemplo, vozes geradas pela Elevanlabs tem sido utilizadas por “trolls” em “deepfakes de voz”, difundindo memes, falas eróticas e discursos de ódio, de forma preocupante – cf. https://www.theverge.com/2023/1/31/23579289/ai-voice-clone-deepfake-abuse-4chan-elevenlabs

[14] HU, Krystal. ChatGPT sets record for fastest-growing user base – analyst note. Reuters. 02/02/2023. Disponível na web: https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01

[15] MODESTO, Paulo. Direito Administrativo da Experimentação: uma introdução, In: Conjur, 14-10-2021, disponível em: https://bit.ly/experimenta-adm

Autores

  • é professor da Faculdade de Direito da Universidade Federal da Bahia (UFBA), presidente do Instituto Brasileiro de Direito Público e membro do Ministério Público da Bahia e da Academia de Letras Jurídicas da Bahia.

Tags:

Encontrou um erro? Avise nossa equipe!