Direito Digital

IA generativa: do pedido de moratória à urgência de regulamentação

Autores

  • Bruno Farage da Costa Felipe

    é professor advogado e pesquisador do Legal Grounds Institute doutorando em direito pela PUC-Rio e mestre em Direito pela Uerj.

  • Bernardo de Souza Dantas Fico

    é mestre em Direito pela Northwestern University bacharel em Direito pela USP especializado em Direito Digital Direitos Humanos e Direitos LGBT advogado no escritório Opice Blum Bruno e Vainzof Advogados Associados coordenador do Núcleo de Proteção de Dados da USP (NPD-Techlab) e gestor institucional do Legal Grounds Institute.

30 de maio de 2023, 8h00

Medo, insegurança, incerteza, especulação. Esses termos não são novidade para quem já acompanha o debate acerca do desenvolvimento e uso da inteligência artificial. A potencialidade da IA tem despertado questionamentos ao redor do globo, alguns críveis e outros alarmistas. Dentre as vozes do debate há magnatas, bilionários e até intelectuais de grande renome.

ConJur
Há quase uma década, o físico Stephen Hawking se manifestou [1] acerca da alta probabilidade de a IA ser uma ameaça para a humanidade: a ameaça real à humanidade não deveria ser pensada como um agente externo, mas interno. O físico teórico defendia que o mal pode ser fruto de nossas próprias criações, como é o caso da IA. O sucesso em criar inteligência artificial seria o maior evento na história da humanidade, mas, infelizmente, também poderia ser o último, a menos que aprendêssemos a evitar seus males. Os cientistas já apontavam que todos nós deveríamos nos perguntar o que podemos fazer para aumentar as chances de potencializar os benefícios da inteligência artificial, evitando os seus riscos [2].

Em outro artigo, Hawking [3] voltou a afirmar que a tecnologia precisa ser controlada para que não acabe destruindo a espécie humana. O verdadeiro risco da AI não residiria em uma "essência maldosa", mas em sua competência [4]. Isso porque um sistema de IA pode ser extremamente eficaz em alcançar seus objetivos e, caso esses objetivos não estejam alinhados com os nossos enquanto sociedade, podemos ter sérios problemas. Também apoiaram esse discurso, dentre outros, Bill Gates e Elon Musk. Enquanto o primeiro (Rawlinson, 2015), há quase dez anos, já afirmava não entender o fato de as pessoas não estarem ainda preocupadas com a possibilidade de a AI ser uma ameaça, o segundo sempre esteve convencido de que nós devemos ter muito cuidado a respeito da inteligência artificial, sendo ela a maior ameaça à nossa existência. Para Musk, deveria haver regulamentação sobre a questão, seja em nível nacional ou internacional, apenas para termos certeza de que não faremos algo que ponha nossa existência em risco, quando da criação de sistemas de IA [5].

A tensão voltou à tona com a popularização da IA generativa [6] e com o fato de ela estar sendo utilizada em larga escala, após o lançamento do gerador de imagens Dall-E e do gerador de textos ChatGPT, ambos desenvolvidos pela OpenAI. Muitas das capacidades da IA ainda não eram perceptíveis pelo usuário comum, o que fazia com que o debate sobre o desenvolvimento e o uso da IA não recebessem tanta atenção. A facilidade de acesso à IA possibilitada por essas e outras aplicações inclusive fez com que o tema se tornasse recorrente na mídia.

Recentemente, em março deste ano, uma carta aberta denominada "Pausem Experimentos Gigantes de IA" [7] causou alvoroço no mundo da tecnologia — e fora dele — principalmente por ter sido assinada por milhares de indivíduos (hoje, na data de escrita deste artigo, a carta conta com 27.565 assinaturas), incluindo algumas "personalidades", como Elon Musk, Steve Wozniack, Yuval Harari e Tristan Harris.

A carta defende, entre outros pontos, que os sistemas de IA (com inteligência artificial que competiria com a humana) podem representar riscos profundos para a sociedade e a humanidade como um todo. Destaca-se como causa desses riscos, por exemplo, o fato de IAs estarem se tornando concorrentes diretos dos humanos em tarefas gerais. Assim, a carta pede que todos os laboratórios de IA parem imediatamente — por pelo menos seis meses — o treinamento de sistemas de IA mais poderosos que o GPT-4.

Apesar de a carta resgatar argumentos válidos de preocupações passadas, ela tem sido vista como polêmica por alguns, principalmente devido a dois pontos:

1. Possíveis intenções não declaradas: A carta é uma iniciativa do Future of Life Institute, organização que tem como um de seus consultores externos o bilionário Elon Musk. Além de já haver doado milhões de dólares para fins de pesquisa, o próprio Musk tem demonstrado interesse em investir no desenvolvimento da IA. Para muitos, esse fato por si só tornaria o pedido da carta suspeito. Ainda, Musk criou uma empresa de inteligência artificial denominada X.AI, para competir com a OpenAI [8] por meio de um sistema concorrente já batizado de TruthGPT [9]. Segundo o bilionário, o objetivo é uma IA que busque ao máximo a verdade e entenda a natureza do universo.

2. Prazo arbitrário: Não se sabe os motivos pelos quais a carta estipula um prazo de seis meses de pausa no desenvolvimento de IAs. O receio do desenvolvimento e uso da IA sem parâmetros regulatórios é real (e de certa forma antigo). Contudo, o prazo indicado na carta parece insuficiente para sanar a questão regulatória. Não sendo suficiente para melhor regular o desenvolvimento de IAs, retorna-se à questão: poderia o discurso de cautela (que é válido e necessário) estar sendo utilizado para alcançar concorrentes que, hoje, estão em vantagem na corrida mercadológica?

Uma conclusão, contudo, é clara: a tendência mundial em prol da regulamentação da inteligência artificial torna-se cada vez mais necessária. Pausar por completo o desenvolvimento de sistemas de IA parece impossível, mas há maneiras de mitigar riscos. Para amenizar os possíveis danos e consequências de sistemas de IA uma medida necessária é não nos demorarmos mais que o necessário na regulamentação da matéria. No Brasil, o debate sobre a IA se intensifica. Os frutos gerados incluem o Projeto de Lei n° 2.338, de 2023, que dispõe sobre o uso de inteligência artificial e se pauta na abordagem de riscos adotada também pela Europa na proposta do AI Act. Os benefícios da IA são muitos, mas não regular essa tecnologia adequadamente pode, de um lado, causar danos evitáveis (se pouco regulada) e, de outro, atrasar o desenvolvimento de aplicações tecnológicas relevantes (se excessivamente engessada).

 


[1] Em um artigo em coautoria com outros pesquisadores- Max Tegmark, Stuart Russell e Frank Wilczek

[2] HAWKING, Stephen; RUSSELL, Stuart; WILCZEK, Max Tegmark; Frank. Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough? 2014. Disponível em: <http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-atthe-implications-of-artificial-intelligence-but-are-we-taking-9313474.html>. Acesso em: 18 mai. 2023.RAWLINSON, Kevin. Microsoft's Bill Gates insists AI is a threat. 2015. Disponível em: https://www.bbc.com/news/31047780. Acesso em: 18 maio 2023.

[3] WHIPPLE, Tom. Stephen Hawking on humanity (and Jeremy Corbyn): The physicist is hopeful for the future – as long as the Labour leader goes. 2017. Disponível em: <http://www.thetimes.co.uk/edition/news/hawking-on-humanity-and corbynjk88zx0w2>. Acesso em: 18 mai. 2023.

[4] GRIFFIN, Andrew. Stephen Hawking: Artificial intelligence could wipe out humanity when it gets too clever as humans will be like ants: AI is likely to be "either the best or worst thing ever to happen to humanity," Hawking said, "so there's huge value in getting it right". 2015. Disponível em: <http://www.independent.co.uk/life-style/gadgets-and-tech/news/stephen-hawkingartificial-intelligence-could-wipe-out-humanity-when-it-gets-too-clever-as-humansa6686496.html>. Acesso em: 18 mai. 2023.

[5] GIBBS, Samuel. Elon Musk: artificial intelligence is our biggest existential threat. 2014. Disponível em: <https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificialintelligence-ai-biggest-existential-threat>. Acessoem: 18 mai. 2023.

[6] A IA generativa usa um tipo de aprendizado de máquinas mais profundo, denominado de redes adversárias generativas (generative adversarial networks ou GANs, na sigla em inglês).

[7] Future of Life. Pause Giant AI Experiments: An Open Letter. 2023. Disponível em: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Acesso em: 18 maio 2023.

[8] VERGE, The. Elon Musk founds new AI company called X.AI. 2023. Disponível em: https://www.theverge.com/2023/4/14/23684005/elon-musk-new-ai-company-x. Acesso em: 18 maio 2023.

[9] SAUER, Megan. Elon Musk now says he wants to create a ChatGPT competitor to avoid 'A.I. dystopia'—he’s calling it 'TruthGPT'. 2023. Disponível em: https://www.cnbc.com/2023/04/19/elon-musk-says-he-wants-to-create-chatgpt-competitor-called-truthgpt.html. Acesso em: 18 maio 2023.

Autores

  • é professor, advogado e pesquisador do Legal Grounds Institute, doutorando em direito pela PUC-Rio e mestre em Direito pela Uerj.

  • é mestre em Direito pela Northwestern University, bacharel em Direito pela USP, especializado em Direito Digital, Direitos Humanos e Direitos LGBT, advogado no escritório Opice Blum, Bruno e Vainzof Advogados Associados e coordenador do Núcleo de Proteção de Dados da USP (NPD-Techlab).

Tags:

Encontrou um erro? Avise nossa equipe!