Opinião

Premissa básica para regulação e uso das tecnologias digitais: armadilha dos incentivos tecnológicos

Autor

  • é professor da UFMG e da PUC-Minas. Membro honorário da Associação Iberoamericana de Direito e Inteligência Artificial. Diretor do Instituto Direito e Inteligência Artificial (Ideia). Doutor em Direito pela PUC-Minas/Universitá degli Studi di Roma "La Sapienza".

    Ver todos os posts

19 de junho de 2025, 6h01

“Se as pessoas começarem a acreditar que a IA dominará e gerenciará o mundo, elas podem parar de pensar criticamente.”
Luciano Floridi [1]

É cada vez mais evidente que, para compreender e regular uma tecnologia de informação e comunicação, é imprescindível entender os incentivos que ela oferece. Tecnologias não são neutras: moldam comportamentos, criam expectativas e induzem usos específicos a partir de seu design, arquitetura de escolha e propósito. A suposição comum de que tecnologias digitais podem, por si só, emancipar, qualificar ou potencializar a reflexão humana ignora um dado empírico: a maioria dos incentivos embutidos nesses sistemas tende à facilitação, à recompensa imediata e à minimização do esforço cognitivo.

Ao se pensar em governança e regulação de tais tecnologias é imperativo se analisar constantemente os incentivos que elas ofertarão.

A reportagem do Wall Street Journal publicada em 10 de junho de 2025 [2] reforça esse diagnóstico ao demonstrar como a introdução de ferramentas generativas de IA pelo Google [3] passou a substituir as buscas tradicionais e minar o tráfego de veículos jornalísticos, desincentivando o clique e o engajamento com o conteúdo original. A IA tem sido usada para responder diretamente às perguntas, sem necessidade de mediação ou verificação, promovendo assim um ambiente de comodidade passiva, que esvazia tanto o esforço de busca quanto a valorização de fontes autênticas.

Igualmente, quando colocamos um smartphone nas mãos de uma criança ou adolescente, o uso dominante não tende à educação crítica ou à leitura complexa, mas ao entretenimento de curto prazo. Analogamente, ao oferecer uma IA generativa de texto (como o ChatGPT ou Claude) a um estudante, o incentivo dominante não é a dialética socrática ou a reflexão profunda, mas sim a delegação do trabalho cognitivo a um sistema que escreve “por” ele.

Essa dinâmica se explica, em parte, por mecanismos neuropsicológicos descritos por Daniel Kahneman, [4] que identificou no pensamento humano dois sistemas: um rápido, intuitivo e de baixo custo (Sistema 1), e outro lento, deliberativo e dispendioso (Sistema 2). A tendência natural do cérebro humano é, sempre que possível, operar no modo mais econômico. Isso gera um ambiente propício à superficialidade quando as tecnologias reforçam esse padrão com funcionalidades automatizadas e respostas prontas.

Perceba que tal situação pode se agravar com o emprego atual e cada vez mais recorrente das IAs generativas, como o ChatGPT, na medida em que ele permite o uso que pode substituir, quando mal usadas, uma infinidade de atividades cognitivas que poderão ir minando nossas próprias reflexões.

Entretanto, essa análise não pode ser totalizante. Diversos contrapontos indicam que o efeito de uma tecnologia é contextualmente mediado e culturalmente determinado. Langdon Winner [5] já alertava para o risco de uma tecnodeterminação ingênua e propunha que os sistemas tecnológicos são também expressões de escolhas políticas e sociais. Da mesma forma, Andrew Feenberg [6] propõe uma abordagem instrumental crítica, na qual os usos da tecnologia são moldados por lutas simbólicas, institucionais e ideológicas.

Spacca

Assim, um smartphone em um ambiente escolar altamente estruturado poderia ser convertido em ferramenta de investigação empírica e aprendizado. Uma IA generativa pode, sob orientação docente ou uma governança institucional adequada, ser usada como ferramenta dialética, em que o estudante/profissional propõe teses, testa contra-argumentos e refina seu pensamento por meio da interação.

No entanto, se deixamos a tecnologia e seus incentivos sem contramedidas a tendência será que ela alimente um comportamento preguiçoso. Foi por isso que os smartphones sofrem um processo de banimento legislativo internacional das escolas, tal qual ocorreu conosco pela Lei 15.100/2025, exatamente para reduzir o quadro inviável de distração criado pelos gadgets entre os alunos.

A teoria da autodeterminação de Deci e Ryan [7] também contribui para esse debate. Segundo os autores, o esforço cognitivo pode ser voluntariamente assumido quando estão presentes três condições: autonomia, competência e pertencimento. Assim, mesmo que a tecnologia ofereça a rota da facilidade, um contexto que valorize o desafio e reconheça o esforço pode incentivar comportamentos contraintuitivos, como a busca pela complexidade e pela elaboração própria.

Ademais, estudos empíricos recentes reforçam que é o design de mediação pedagógica que define o tipo de relação estabelecida com sistemas de IA. Holmes et al. [8], ao analisarem o uso educacional de sistemas de IA, mostram que ambientes com mediação reflexiva (e não apenas transmissiva) obtêm melhores resultados em termos de pensamento crítico. Selwyn [9], por sua vez, sustenta que as tecnologias educacionais jamais atuam isoladamente, sendo sempre reflexo das normas institucionais e dos regimes de valor presentes nas comunidades de aprendizagem.

No campo jurídico essas preocupações ganham dimensão ainda mais relevante. Conforme venho apontando [10], o uso da IA generativa por profissionais do direito, especialmente na confecção de petições e decisões, tem demonstrado uma tendência à delegabilidade da argumentação, com riscos reais de perda de qualidade e de análise da casuística, alucinação de julgados e empobrecimento da interpretação contextualizada.

O caso do julgamento do REsp 2.207.929/MG no STJ (2025), no qual o relator apontou o uso de IA para gerar julgados inexistentes, é emblemático da urgência em se desenvolver letramento digital crítico e modelos de supervisão robustos. Daí nossa proposta de busca de implementação do modelo de “suporte à decisão orientado ao processo” [11] no qual a IA generativa apoia, mas não substitui o julgamento humano. Estudos empíricos [12] demonstram que a confiança excessiva na IA é inversamente proporcional ao uso de pensamento crítico, criando um ambiente de “convergência mecanizada” que reduz a diversidade interpretativa no direito.

Desafio não é tecnológico, mas de governança

Essa tendência à delegação cognitiva também é corroborada por estudos empíricos recentes com estudantes de Direito. Em pesquisa [13] conduzida com mais de 300 participantes, observou-se que, embora a maioria reconheça o potencial da IA como instrumento de apoio ao raciocínio jurídico, grande parte dos alunos utiliza o ChatGPT como substituto — e não como extensão — de suas próprias reflexões. Muitos relataram confiar nas respostas sem realizar validações adicionais, mesmo cientes de possíveis erros. Isso demonstra como, mesmo entre estudantes do campo jurídico, há uma tendência à comodidade e ao uso automatizado, em detrimento do pensamento crítico que o Direito exige.

Esse achado reforça a tese de que os incentivos incorporados nas IAs generativas moldam comportamentos de forma silenciosa, promovendo a economia cognitiva em vez da elaboração analítica. O desafio, nesse contexto, passa a ser o de reconfigurar esses incentivos — mediante práticas educativas que estimulem o confronto dialético, a verificação das fontes e a problematização dos enunciados gerados. O uso da IA como “copiloto cognitivo”, e não como redator substitutivo, depende de uma intencionalidade formativa clara e de mecanismos institucionais que valorizem o processo reflexivo tanto quanto o produto final.

Diante dos riscos de uso automatizado e não reflexivo das IAs generativas — como apontado na meta-análise já indicada [14], recomenda-se que instituições educacionais, inclusive para profissionais, adotem um framework estruturado de letramento em IA. Esse modelo deve contemplar, segundo a OCDE [15], três dimensões principais: (1) compreensão conceitual das tecnologias de IA (como funcionam, limites, riscos e vieses); (2) uso responsável e ético, que inclui a capacidade de questionar resultados, identificar conteúdos sintéticos e compreender impactos sociais; e (3) participação ativa, com foco na agência dos estudantes frente às decisões mediadas por IA. Esses pilares devem ser adotados de modo transversal nos currículos, com propostas pedagógicas que não apenas instrumentalizem o uso da IA, mas cultivem a atitude crítica e a autonomia intelectual.

Além disso, o framework recomenda que as “escolas” promovam cenários simulados e orientados por problemas, nos quais os alunos possam utilizar IAs como ferramentas de apoio à investigação e no processo, sob mediação docente qualificada. A ideia central é deslocar o foco da eficiência produtiva para o desenvolvimento de competências metacognitivas e epistêmicas, reduzindo a dependência acrítica de respostas automatizadas. A formação dos professores, por sua vez, torna-se eixo estratégico desse modelo: o letramento em IA deve começar com os próprios educadores, que precisam dominar não apenas a técnica, mas sobretudo os critérios éticos, jurídicos e pedagógicos do uso dessas ferramentas em sala de aula. Isso claramente não se esgota apenas com treinamento para elaboração de prompts.

Ao se tomar todos esses aspectos, vislumbra-se que o uso da IA deve ser tratado no Direito não como um substituto da análise jurídica, mas como um copiloto sob constante validação. Isso implica não apenas em treinamento técnico (de conhecimento da tecnologia e de engenharia de prompts), mas em formação epistemológica, ética e normativa dos profissionais. A promessa de que a IA impulsionará a reflexão só se sustenta se forem criados incentivos contrários ao uso automatizado e acrítico.

O risco não está apenas na tecnologia em si, mas na falta de consciência crítica sobre os incentivos que ela mobiliza. Mais do que proibir ou incentivar indiscriminadamente o uso da IA, é preciso repensar os ambientes normativos, pedagógicos e institucionais em que essas ferramentas são inseridas, com destaque para aqueles que envolvam alto risco. Regular tecnologias é regular incentivos e os ambientes de escolha que estruturam: é moldar os contextos que valorizam (ou não) o esforço interpretativo, o raciocínio argumentativo e a prudência decisória. E a regulação é essencial!

No campo jurídico, a promessa de que a IA ampliará a racionalidade e a eficiência do sistema de justiça só se concretizará se os sistemas forem pensados não apenas para “resolver tarefas”, mas para preservar e expandir a capacidade crítica e deliberativa dos profissionais humanos. O desafio, portanto, não é tecnológico, mas essencialmente de governança, pedagógico e institucional.

 


[1] aqui

[2] SIMONETTI, Isabella; BLUNT, Katherine. News Sites Are Getting Crushed by Google’s New AI Tools. Wall Street Journal, 10 jun. 2025. Disponível aqui

[3] Com resumos concisos e informativos sobre um tema específico no topo dos resultados de busca – AI Overview,

[4] KAHNEMAN, Daniel. Rápido e devagar : duas formas de pensar. Rio de Janeiro : Objetiva, 2012. Para uma abordagem jurídica da teoria dos vieses cognitivos. NUNES, Dierle; LUD, Natanael; PEDRON, Flávio. Desconfiando da (Im)Parcialidade dos Sujeitos Processuais: Um Estudo Sobre os Vieses Cognitivos, a Mitigação de Seus Efeitos e o Debiasing. Podivm, 2022.

[5] WINNER, Langdon. The Whale and the Reactor: A Search for Limits in an Age of High Technology. Chicago: University of Chicago Press, 1986.

[6] FEENBERG, Andrew. Questioning technology. London: Routledge, 1999.

[7] DECI, Edward L.; RYAN, Richard M. Self-Determination Theory and the Facilitation of Intrinsic Motivation, Social Development, and Well-Being, 2000.

[8] HOLMES, Wayne et al. Artificial Intelligence in Education: Promises and Implications for Teaching and Learning.UNESCO, 2019.

[9] SELWYN, Neil. Education and Technology: Key Issues and Debates. London: Bloomsbury Academic, 2017.

SELWYN, Neil. Education and Technology: Key Issues and Debates. London: Bloomsbury Academic, 2016.

[10] NUNES, Dierle. Precisamos falar do treinamento para o uso de inteligência artificial no direito. ConJur, 2025. Disponível aqui. NUNES, Dierle. IA generativa no Judiciário brasileiro: realidade e alguns desafios. ConJur, 2025. Disponível aqui

[11] NUNES, Dierle. Explorando as possibilidades de uso da IA para o apoio à decisão no Direito. Aqui

[12] LEE, Hao-Ping et al. The impact of generative AI on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. 2025.

[13] DENG, Ruiqi; JIANG, Maoli; YU, Xinlu; LU, Yuyan; LIU, Shasha. Does ChatGPT enhance student learning? A systematic review and meta-analysis of experimental studiesAqui

[14] Cit.

[15] ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT; EUROPEAN COMMISSION. Empowering learners for the age of AI: an AI literacy framework for primary and secondary education – Draft for public consultation, May 2025. Paris: OECD, 2025.

Autores

  • é sócio do escritório do Camara, Rodrigues, Oliveira & Nunes Advocacia (Cron Advocacia), doutor em Direito Processual, professor na PUC Minas e UFMG, membro da Comissão de Juristas que elaborou o anteprojeto de reforma do Código Civil e que assessorou na elaboração do Código de Processo Civil de 2015 e coordenador do Núcleo de Estudos de Inteligência Artificial no Direito da OAB-MG.

Encontrou um erro? Avise nossa equipe!