Opinião

O fenômeno do ChatGPT desperta a necessidade da regulamentação da IA

Autor

19 de março de 2023, 11h49

Desde o final de novembro do ano passado, quando sua versão beta foi lançada para uso público, o ChatGPT vem deslumbrando e, de certa maneira, assustando as pessoas em razão da sua capacidade descomunal de produzir textos, responder a perguntas sobre praticamente todos os assuntos e estabelecer conversações com raciocínio lógico. Ele é capaz de escrever textos de natureza diversa, como poemas, crônicas e até letras de música, em diversos estilos. Também pode desempenhar outras funções, como elaborar códigos de programa de computador, escrever roteiros de filmes, ensaios e muito mais [1].

Freepik
Freepik

Alcançou mais de 100 milhões de usuários em janeiro deste ano e sua base de assinantes continua a aumentar rapidamente. A assinatura paga (versão Plus) foi lançada no Brasil no início de fevereiro e a nova versão — o GPT-4 — está prevista para ser lançada ainda em 2023 [2]. A empresa que desenvolveu o ChatGPT foi a OpenAI [3], uma companhia estadunidense especializada em soluções de inteligência artificial generativa [4].

O ChatGPT é uma ferramenta algorítmica que imita a linguagem natural, um tipo de inteligência artificial conversacional, ou seja, um chatbot que conversa e estabelece diálogos com o usuário. Mas a maneira conversacional como interage com o usuário é diferenciada, pois não se limita a responder questões, sendo capaz de admitir erros, desafiar premissas incorretas e rejeitar pedidos inapropriados.

É da família dos grandes modelos de linguagem (large language models), que são programas treinados em vastos conjuntos de dados textuais para gerar linguagem natural, na forma semelhante a um texto produzido por uma pessoa humana. Os modelos de linguagem são usados para compreender e responder a perguntas em línguas naturais [5], como o inglês, o português, o francês, o espanhol etc. Para gerar textos em língua natural, os modelos de linguagem são treinados para aprender a prever a próxima palavra ou frase com base no contexto anterior. Eles podem ser usados para várias tarefas, como tradução automática, geração de texto, resumo automático [6] e resposta a perguntas. Os modelos de linguagem mais recentes, como o GPT-3 [7] da OpenAI, são baseados em redes neurais [8] profundas e apresentam um desempenho impressionante em várias tarefas de processamento de linguagem.

O lançamento do ChatGPT deu lugar a uma corrida entre as big techs, que apressaram projetos para avançar no desenvolvimento de soluções de IA. A primeira que se sentiu ameaçada com a novidade foi a Google, que enxergando a possibilidade de perder seu longo domínio no setor de buscas na internet [9], anunciou planos de lançar sua própria ferramenta de inteligência artificial semelhante ao ChatGPT. No início de fevereiro, apresentou o chatbot Bard [10], sua aposta para concorrer com o ChatGPT [11]. A Microsoft fez um movimento mais rápido e reforçou sua parceria com a empresa que desenvolveu o ChatGPT, com um investimento multibilionário na OpenAI [12], o que lhe conferiu a primazia de ser o primeiro parceiro comercial a utilizar o chatbot em seus produtos. A Microsoft anunciou que vai incorporar o ChatGPT em alguns de seus produtos, como o Word, o Powerpoint, o Outlook, o Teams (seu software para videoconferência) e seu serviço de nuvem Azure. E, logo em seguida, divulgou que vai incorporar o mecanismo do ChatGPT ao Bing, seu motor de busca [13], que agora vai não apenas fornecer uma lista com os resultados de pesquisa, mas também responderá a perguntas, conversará com os usuários e gerará conteúdo em respostas às consultas feitas pelo público [14].

Até Elon Musk não quer ficar de fora da corrida para colocar no mercado ferramentas de linguagem natural e anunciou estar formando equipe com especialistas em inteligência artificial, para montar seu próprio laboratório de pesquisas e fazer frente ao ChatGPT [15]. A competição não se limita a empresas de tecnologia, estendendo-se a governos de diferentes países. No final de fevereiro, a China liberou seu chatbot conversacional baseado em inteligência artificial, nomeado de Moss, para teste pelo público. O Moss foi desenvolvido por uma equipe de cientistas da Universidade de Fudan, em Shanghai [16].

Esse tipo de tecnologia colocou a inteligência artificial generativa (generative artificial intelligence) [17] no centro do debate, em razão dos seus impactos sobre os direitos e segurança das pessoas, fazendo com que cientistas e políticos aumentassem o tom das reivindicações pela regulamentação da IA.

Os benefícios potenciais da IA na sociedade são diversos. Programas baseados em IA podem contribuir para reduzir a poluição, diminuir o número de acidentes e mortes no trânsito das cidades, revolucionar a medicina e criar novos procedimentos e tratamentos de assistência à saúde, melhorar a educação e auxiliar no combate ao crime e ao terrorismo. As tecnologias de IA têm potencial para incrementar produtividade em todos os setores da economia, criar novos mercados e trazer oportunidades de crescimento econômico. Apesar dos incontáveis e fantásticos benefícios que a tecnologia pode trazer para a humanidade, sua utilização também vem acompanhada de certos riscos, pois tem o potencial de expor pessoas a erros de concepção e vícios de segurança, minando direitos e garantias fundamentais dos indivíduos, ameaçando a segurança das pessoas e comprometendo valores democráticos da sociedade.

Especificamente no que diz respeito aos modelos de linguagem generativa, os riscos são de que aumentem ainda mais a desinformação, o processo de disseminação de notícias falsas (fake news) que tem ameaçado os governos democráticos. Os grandes modelos algorítmicos de linguagem natural (large language models) vão tornar ainda mais fácil a produção de milhares de notícias falsas, com versões diversas sobre um mesmo fato. Por meio da criação de perfis falsos em plataformas digitais, vai ser mais fácil influenciar pessoas a tomar decisões equivocadas. É o que pensa, por exemplo, a professora Pattie Maes, especialista em inteligência artificial do prestigioso MIT (Massachussets Institute of Technology). Ressaltando que o quadro atual de descontrole informacional já é nocivo, ela alerta que "essa tecnologia vai degradar ainda mais esse cenário, porque a internet vai ser inundada por muito mais lixo travestido de conteúdo sério, convincente" [18]. Ela explica que conteúdo produzido ou recomendado por inteligência artificial, por ser capaz de gerar textos bem elaborados, induz as pessoas a serem menos críticas sobre se algo é verdade ou não.

O ChatGPT e os grandes modelos de linguagem em geral, já que são treinados e coletam grandes quantidades de informações disponíveis livremente nas redes telemáticas, também levantam preocupações com aspectos ligados à privacidade e proteção de dados pessoais.

O sistema coleta imensas quantidades de dados disponibilizadas na internet, podendo processar inclusive dados sensíveis das pessoas que se encontram hospedados em outros serviços e plataformas digitais. Como não se sabe exatamente os parâmetros do seu funcionamento, não é descartado que o ChatGPT seja treinado não só com base em dados abertos mas também sobre dados que lhe são compartilhados por outras plataformas e serviços digitais. Ademais disso, como se trata de um sistema conversacional, que se envolve em diálogo utilizando linguagem natural, isso pode levar a que o usuário forneça informações pessoais de cunho extremamente íntimo. Em face dessa característica de seu funcionamento, o usuário muitas vezes pode imaginar que está travando contato com uma pessoa humana, e não com um sistema de inteligência artificial. Engajando-se em um diálogo com o ChatGPT, o usuário pode revelar seus interesses, credos, preferências sexuais, ideológicas e dados relativos à sua saúde. O chatbot não só vai armazenar todas as mensagens recebidas do usuário como, por ser um sistema de inteligência artificial altamente sofisticado, vai realizar um cruzamento desses blocos de dados e extrair inferências que lhe permitirá traçar um perfil completo da personalidade do usuário.

Outra área em que o ChatGPT levanta preocupações é a relacionada com os direitos autorais. Por exemplo, quais são as implicações de um usuário de um sistema de inteligência artificial generativa criar novos textos partindo de um trabalho intelectual anterior sem fazer menção ou sem os créditos necessários ao trabalho original? A utilização do trabalho original, ainda que partes dele, necessita de autorização do autor? Essas são questões legais que emergem com o surgimento e utilização desses novos sistemas de inteligência artificial de linguagem natural. Os conjuntos de dados sobre os quais o sistema é treinado e de onde extrai os resultados pode envolver trabalhos intelectuais protegidos pelo direito autoral.

As implicações desses novos sistemas de inteligência artificial generativa são muitas, sobre diversas áreas e aspectos da vida humana, com o potencial de afetar direitos fundamentais das pessoas, o que reforça a necessidade de regulamentação do desenvolvimento e funcionamento dessas tecnologias.

Existe uma cultura prevalente no meio corporativo e também nos Estados Unidos de que o mercado é quem deve encontrar as melhores práticas e se autorregular. Iniciativas autorregulatórias voltadas a aumentar a precisão dos produtos de IA, reduzir o risco de respostas enviesadas e lesão a direitos fundamentais das pessoas, são bem-vindas e devem ser estimuladas. Mas não são suficientes para eliminar os riscos extremos que as tecnologias baseadas em inteligência artificial colocam para a sociedade.

Apenas os governos, com a colaboração de organismos internacionais, serão capazes de estabelecer uma legislação que todas as empresas obedeçam para o desenvolvimento de produtos e serviços que utilizem inteligência artificial. A intervenção regulatória dos governos, através de seus parlamentos, é defendida até por Sam Altman, o CEO da OpenAI, que criou o ChatGPT. Altman alerta que não vai demorar muito para o mundo conhecer uma inteligência artificial potencialmente assustadora [19], sendo fundamental criar regras e regulamentos para evitar os desvios da tecnologia.

A União Europeia já apresentou, desde abril de 2021, a sua proposta para regulamentação das tecnologias de inteligência artificial (IA), que recebeu o nome de Artificial Intelligence Act (ou simplesmente AI Act). Os eurodeputados esperam chegar a um consenso em torno do AI Act neste mês de março e tentar aprovar o texto ainda em 2023 [20]. O Brasil não está atrasado na questão da regulamentação das tecnologias de inteligência artificial. Em dezembro de 2022, uma comissão de juristas presidida pelo ministro do STJ Ricardo Villas Bôas Cueva entregou ao presidente do Senado, senador Rodrigo Pacheco, um relatório que vai subsidiar a análise dos vários projetos de lei que tramitam no Congresso relativos ao tema [21].

A regulamentação traz segurança jurídica e favorece as próprias empresas que desenvolvem ou estão em processo de desenvolvimento de ferramentas de IA. Com um quadro regulatório estabelecido, as empresas têm que trabalhar dentro de regras, equilibrando a competição e favorecendo o consumidor com melhores produtos e serviços. A regulamentação das tecnologias de inteligência artificial é o único caminho para enfrentar os claros desafios que a sociedade terá pela frente.

 


[1] Para fazer um teste no ChatGPT, acesse: https://chat.openai.com/auth/login

[2] Cf. notícia publicada no site Olhar Digital, em 13.02.23, acessível em: https://olhardigital.com.br/2023/02/13/internet-e-redes-sociais/chatgpt-plus-e-oficialmente-lancado-no-brasil/

[3] O site da OpenAI: https://openai.com/

[4] A OpenAI é a empresa que desenvolveu também o Dall-E, aplicativo capaz de gerar imagens de acordo com as preferências e determinações do usuário. Tanto o ChatGPT como o Dall-E são treinados em grandes quantidades de dados, disponibilizados na Internet. Para testar o Dall-E, acesse: https://openai.com/product/dall-e-2.

[5] Língua natural é qualquer linguagem desenvolvida naturalmente pelo ser humano, como o português, o francês, o inglês etc.

[6] Os modelos de linguagem podem ser usados para resumir automaticamente documentos longos ou artigos, tornando-os mais acessíveis e fáceis de ler.

[7] Generative Pre-Training Transformer 3 (GPT-3) — que traduzido para o português seria algo como "Transformador Generativo Pré-Treinado 3" — é um modelo de linguagem autorregressivo que usa aprendizagem profunda para produzir texto semelhante ao humano. É o modelo de previsão de linguagem de terceira geração da série GPT-n (e o sucessor do GPT-2) criado pela OpenAI. A versão completa do GPT-3 tem capacidade para 175 bilhões de parâmetros de aprendizado de máquina. Introduzida em maio de 2020 e em teste beta em julho de 2020, essa versão é parte de uma tendência em sistemas de processamento de linguagem natural (PNL) de representações de linguagem pré-treinadas. Antes do lançamento do GPT-3, o maior modelo de linguagem era o Turing NLG da Microsoft, lançado em fevereiro de 2020, com capacidade para 17 bilhões de parâmetros – menos de um décimo do GPT-3. (Cf. Wikipedia, https://pt.wikipedia.org/wiki/GPT-3).

[8] Em ciência da computação, redes neurais artificiais (RNAs) são modelos computacionais inspirados pelo sistema nervoso central de um animal (em particular o cérebro) que são capazes de realizar o aprendizado de máquina (aprendizagem a partir dos dados) bem como o reconhecimento de padrões. (Cf. Wikipedia, https://pt.wikipedia.org/wiki/Rede_neural_artificial).

[9] Embora o Bing tenha apenas cerca de 9% do mercado de buscas na Internet, a integração do algoritmo do ChatGPT no mecanismo de busca da Microsoft pode resultar em mudanças na participação dessas empresas nesse setor da economia digital. A tecnologia do ChatGPT é a aposta da Microsoft para abocanhar parte maior do mercado que é dominado pela Google (com o seu buscador Chrome).

[10] A Google já vinha desenvolvendo há cerca de dois anos um modelo de linguagem para aplicativos de diálogo, o LaMDA, tecnologia que será incorporada ao Bard.

[12] O investimento anunciado foi de 10 bilhões de dólares.

[14] Esses modelos podem aumentar a precisão das respostas a pesquisas dos usuários, transformando os motores de busca. Em vez de receberem como resultado uma série de links — alguns patrocinados —, podem obter respostas de maneira mais rápida e precisa.

[16] Ver notícia publicada no site Gizmochina, em 21.02.23, acessível em: https://www.gizmochina.com/2023/02/21/china-chatgpt-rival-moss-chatbot/

[17] IA generativa (Generative AI) ou criativa permite que soluções mais simples e céleres sejam encontradas pelo próprio algoritmo, não sendo necessário que o programador crie todos os detalhes de funcionamento em relação aos inputs e outputs do algoritmo. Pode-se afirmar que a inteligência artificial generativa é um algoritmo capaz de aprender sem qualquer supervisão humana por meio de textos, áudios, imagens, vídeos e dados em geral e por meio dessa base de dados criar novos conteúdos em diversos formatos. Por isso, tem a capacidade de criar novos conteúdos, seja em áudio, código, imagens, textos, simulações ou vídeos. Por meio do aprendizado automático, o algoritmo gera conteúdos para diversos tipos de uso, combinando diferentes bases de dados.

[18] Em entrevista dada à Folha de S.Paulo e publicada na edição de 04.03.23. Acessível em: https://www1.folha.uol.com.br/tec/2023/02/inteligencia-artificial-e-como-um-papagaio-e-isso-traz-riscos-diz-especialista-do-mit.shtml

[20] Para saber mais sobre o Artificial Intelligence Act, sugerimos a leitura de nosso artigo "A proposta regulatória da União Europeia para a inteligência artificial (1ª. parte): a hierarquização dos riscos", publicado no site Jus, em 27.05.21, acessível em: https://jus.com.br/artigos/90816/a-proposta-regulatoria-da-uniao-europeia-para-a-inteligencia-artificial-1-parte-a-hierarquizacao-dos-riscos

Autores

Tags:

Encontrou um erro? Avise nossa equipe!