Opinião

Regras ou ruína? Orientações europeias sobre práticas proibidas de IA

Autores

  • é sócio do BBL Advogados diretor de novas tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA) membro das Comissões de Assuntos Legislativos e 5G da OAB-RJ e organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao professor Richard Susskind O fim dos advogados? Estudos em homenagem ao professor Richard Susskind vol. 2Regulação 4.0 vol. I e II e Litigation 4.0.

    Ver todos os posts
  • é advogada de Proteção de Dados e Inteligência Artificial no BBL - Becker Bruzzi Lameirão Advogados pesquisadora no Núcleo de Estudos e Pesquisa em Direito Internacional da Universidade Estadual do Rio de Janeiro (Nepedi-Uerj) One Trust Certified Privacy Professional e membro da Comissão de Crimes Digitais da OAB/RJ.

    Ver todos os posts
  • é sócia de Proteção de Dados e Inteligência Artificial no BBL (Becker Bruzzi Lameirão Advogados) graduada em Direito pela PUC-Rio pós-graduada em Estado e Sociedade pela Associação do Ministério Público do Estado do Rio de Janeiro (AMPERJ) vice-presidente da Comissão de Crimes Digitais da OAB/RJ certified information privacy manager (CIPM) pela International Association of Privacy Professionals (IAPP) IAPP member OneTrust certified privacy professional e professora convidada de instituições como Ibmec Curso Fórum e Faculdade CERS.

    Ver todos os posts

6 de junho de 2025, 20h37

A regulamentação da inteligência artificial tem sido um dos temas mais debatidos no cenário global. Com o Artificial Intelligence Act (EU AI Act), a União Europeia estabeleceu um marco regulatório pioneiro, trazendo uma legislação pautada na classificação de risco dos sistemas de IA, com o objetivo de garantir um uso ético e seguro da tecnologia.

Divulgação

No entanto, algumas das disposições do EU AI Act, como o artigo 5º, levantam preocupações sobre possíveis entraves à inovação. A recente publicação das Guidelines on Prohibited AI Practices pela Comissão Europeia (em tradução livre, Orientações sobre Práticas Proibidas de Inteligência Artificial) adicionou novas camadas a esse debate, ao esclarecer de forma não vinculante a aplicação das restrições, mas também ao expor lacunas interpretativas que podem impactar a adoção da IA na Europa.

Aqui, dois pontos merecem destaque: 1) ainda que os sistemas de IA não estejam diretamente proibidos pelo artigo 5°, muitos poderão ser classificados como de alto risco, a depender do seu enquadramento nas exceções legislativas, como é o caso de tecnologias de reconhecimento de emoções ou de algoritmos de pontuação em crédito e seguros; e 2) mesmo sistemas permitidos pelo EU AI Act poderão ser considerados ilegais à luz de outras normas, como o GDPR, eis que também envolvem o tratamento de dados pessoais. A intersecção entre normativas complexifica o cenário, exigindo conformidade que vá além da mera evitação de condutas proibidas.

Antes de qualquer crítica, contudo, é importante reconhecer que tanto o EU AI Act quanto as Guidelines representam um esforço legítimo de coibir abusos. Na prática, porém, evidenciam falhas estruturais, sobretudo pelo escopo limitado das orientações, que deixam margem a interpretações capazes de comprometer sua eficácia. É o que se passa a expor.

O conceito de “manipulação subliminar” no EU AI Act exemplifica o caráter impreciso e abrangente da abordagem regulatória europeia. O regulamento não distingue o uso de deepfakes para desinformação política de aplicações legítimas em marketing ou entretenimento. Ao complementar a norma com as Guidelines, a Comissão Europeia reforça essa falta de nuance: define técnicas subliminares como qualquer influência fora do limiar da consciência, capaz de manipular decisões sem que o indivíduo perceba o estímulo ou seu efeito.

Esse critério ignora um princípio essencial da tecnologia: o contexto de uso. Mecanismos que a norma condena já são amplamente utilizados em publicidade e user experience design, sem que isso represente, por si só, um risco inaceitável. Em 2019, por exemplo, David Beckham “falou” nove idiomas diferentes, por meio de tecnologia de recriação facial baseada em IA, em uma campanha global contra a malária — hipótese de uso legítimo e inovador da técnica para amplificar vozes e causas.

Outro exemplo notável é o documentário “Welcome to Chechnya”, que empregou técnicas de deepfake para substituir os rostos de vítimas reais da perseguição LGBTQIA+ na Chechênia, protegendo sua identidade sem comprometer a expressividade dos depoimentos. O uso da IA, nesse caso, não apenas viabilizou a denúncia de violações graves, como também inaugurou uma nova forma de proteção de testemunhas no audiovisual, com altíssimo valor social. É notável que, ao proibir tecnologias sem considerar suas aplicações específicas, a UE simplifica desafios complexos — como se proibisse facas por seu potencial ofensivo, ignorando sua utilidade cotidiana.

Noutro trecho, a regulamentação busca coibir práticas de pontuação social baseadas em características pessoais inferidas ou preditas, vedando sistemas que resultem em tratamentos desfavoráveis injustificados ou desproporcionais. A proibição vale para os setores público e privado, abrangendo, por exemplo, o uso de IA por agências de crédito com base em dados como origem étnica ou comportamento em redes sociais – irrelevantes à avaliação de solvência financeira. No entanto, a ausência de uma definição clara sobre o que constitui um tratamento “injustificado ou desproporcional” pode gerar interpretações divergentes, comprometendo a previsibilidade da norma.

As ambiguidades do EU AI Act não se limitam às proibições; elas também se estendem às exceções, viabilizando o comprometimento dos direitos fundamentais que a própria regulamentação se propôs a proteger. A permissão excepcional para vigilância biométrica em casos de “combate a crimes graves” abre margem para interpretações que podem legitimar usos controversos, especialmente em países com tendências autoritárias, nos quais o monitoramento estatal pode se expandir sob esse pretexto. Cria-se um paradoxo: inovações positivas enfrentam barreiras, enquanto usos que exigiriam mais controle se aproveitam de exceções vagas.

Spacca

A vedação ao uso de IA para prever o risco de prática criminosa com base exclusivamente em perfis individuais também enfrenta desafios interpretativos. Embora a normativa proíba o uso isolado de dados pessoais, sistemas que os combinem com fatores como localização podem escapar da restrição. As próprias diretrizes reconhecem que modelos baseados em geolocalização não são abrangidos pela proibição, o que permite reconfigurações estratégicas que esvaziam seu propósito. Além disso, a proibição se restringe – e se aventura – ao Direito Penal, excluindo previsões de infrações administrativas.

O calendário do EU AI Act agrava os problemas: as penalidades — de até 7% do faturamento global ou € 40 milhões — só passam a valer em agosto de 2025. Startups europeias, com pouco fôlego para redesenhar seus sistemas, já enfrentam ameaças existenciais. Enquanto isso, outras nações adotam uma abordagem oposta.  Em 2024, quase metade do capital de risco global em IA foi investido nos EUA — com regras mais permissivas e foco em desenvolvimento tecnológico., A Europa, por sua vez, atraiu apenas 12% desse capital.

A dependência tecnológica da Europa se intensifica: o bloco importa 92% de seus chips de Taiwan e EUA, e a ausência de uma IA soberana agrava sua vulnerabilidade. O impacto já é visível. Casos emblemáticos ilustram o custo humano dessas políticas. A Meta suspendeu o lançamento do Meta AI na Europa, citando incertezas regulatórias ligadas ao Digital Markets Act. A Apple fez o mesmo com o Apple Intelligence e recursos do iPhone 16. Líderes do setor alertam para os riscos: Aiman Ezzat, CEO da Capgemini, afirmou que a União Europeia “foi longe demais e rápido demais na regulamentação da IA”, sugerindo que tais medidas podem sufocar a inovação e tornar a Europa menos competitiva no cenário internacional.

IA como ameaça

A UE parece negligenciar modelos regulatórios mais equilibrados, como o do Reino Unido, que adota uma abordagem dinâmica com sandboxes regulatórios para testar sistemas de IA sob supervisão antes da adoção de normas definitivas. O Information Commissioner’s Office (ICO), por exemplo, oferece um sandbox gratuito para apoiar projetos inovadores que tratam dados pessoais com segurança.

O cerne do problema é filosófico. A UE enxerga a IA como uma ameaça a ser contida, não como uma ferramenta a ser dominada. Essa visão alimenta um ciclo vicioso: regulamentações excessivas desestimulam investimentos, o que reduz a capacidade europeia de influenciar o desenvolvimento global de IA, aumentando a dependência de tecnologias estrangeiras — muitas das quais, ironicamente, operam sob padrões éticos menos rigorosos. Enquanto a China investe pesadamente em IA para impulsionar a eficiência estatal e industrial, com mais de US$ 52 bilhões apenas por meio do Alibaba e a construção de 250 centros de dados financiados por governos locais, a União Europeia gasta energia definindo o que não fazer.

Ainda assim, há espaço para otimismo. A recente decisão da UE de abandonar propostas rígidas sobre patentes e tecnologias críticas, e a sinalização de abertura a ajustes no EU AI Act revelam uma possível inflexão e ilustra que há chance de cessão por parte do bloco europeu. O arquivamento das medidas que limitariam o controle corporativo sobre patentes, pensadas para evitar monopólios, reflete uma escolha difícil: preservar a atratividade industrial ou insistir num idealismo regulatório que repele investidores.

Propostas rígidas sobre transferência de tecnologia ou patentes compulsórias, como as sugeridas em 2025, poderiam ter efeitos colaterais severos — afastando investimentos, desestimulando alianças estratégicas e comprometendo a posição europeia na corrida por inovação. Diante disso, a UE recuou, optando por incentivos fiscais a joint ventures, em vez de medidas punitivas. Essa abordagem, ainda incipiente, mostra que o bloco começa a internalizar uma lição dura: em tecnologias de fronteira, agilidade e cooperação são tão vitais quanto salvaguardas.

Em última análise, e mais cedo do que se esperava, a União Europeia se encontra em um entrave crítico: pode consolidar-se como um regulador rígido, priorizando o controle sobre a inovação, ou pode (ainda) moldar um ambiente em que o desenvolvimento tecnológico e a proteção de direitos fundamentais coexistam. Em vez de tratar a inovação como um risco a ser contido, o desafio da UE é posicioná-la como um pilar de progresso, garantindo que sua regulamentação não impeça, mas impulsione, a competitividade e a soberania digital do bloco.

Autores

  • é sócio das áreas de Resolução de Disputas e de Proteção de Dados e Inteligência Artificial no BBL | Becker Bruzzi Lameirão Advogados, diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA), especialista em litígios contratuais oriundos de setores regulados, organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao Professor Richard Susskind; O fim dos Advogados? Estudos em Homenagem ao Professor Richard Susskind, vol. 2; Regulação 4.0, vol. I e II; Litigation 4.0; e Comentários à Lei Geral de Proteção de Dados, todos publicados pela Revista dos Tribunais.

  • é advogada da área de Proteção de Dados e Inteligência Artificial no BBL | Becker Bruzzi Lameirão Advogados, graduada em Direito pela Uerj e pesquisadora no Núcleo de Estudos e Pesquisa em Direito Internacional da Uerj (Nepedi), One Trust Certified Privacy Professional e membro da Comissão de Crimes Digitais da OAB-RJ.

  • é sócia de Proteção de Dados e Inteligência Artificial no BBL | Becker Bruzzi Lameirão Advogados, graduada em Direito pela PUC-Rio, pós-graduada em Estado e Sociedade pela Associação do Ministério Público do Estado do Rio de Janeiro (Amperj), membro da Comissão de Proteção de Dados da OAB-RJ, Certified Information Privacy Manager (CIPM) pela International Association of Privacy Professionals (IAPP), IAPP Member, OneTrust Certified Privacy Professional, professora convidada de instituições como Ibmec, Curso Fórum e Faculdade CERS.

Encontrou um erro? Avise nossa equipe!