Meu Fusca Já Fala

Projeto de Marco Legal da IA ainda é superficial, apontam especialistas

Autor

11 de outubro de 2021, 7h50

Um carro autônomo atropela um pedestre. De quem é a culpa? Este é o exemplo mais clássico nas discussões sobre o avanço das tecnologias de inteligência artificial (IA). Com a aprovação do projeto de um Marco Legal da IA pela Câmara, o Brasil está próximo de dar um primeiro passo na regulação específica sobre o tema. Mas ao contrário das expectativas, a proposta não traz tantas respostas ou orientações, segundo especialistas.

Pixabay
IAs são cada vez mais comuns no mercadoPixabay

IAs são programações, usadas em sistemas, aplicativos e máquinas, que "imitam" as capacidades humanas. Ou seja, robôs que conseguem interpretar o ambiente externo e a partir disso "aprender" a executar tarefas e a tomar decisões. Voltando ao caso do veículo conduzido por IA que passa por cima de um pedestre: e se o atropelamento ocorreu porque o "motorista" decidiu que seria mais interessante não bater o carro em uma Ferrari?  

Além dos carros autônomos, essas tecnologias são usadas em eletrodomésticos inteligentes, assistentes virtuais e até processos de recrutamento de candidatos a empregos — neste ponto, já há discussões avançadas sobre "discriminação algorítmica". 

O PL aprovado pelos deputados promete "estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da IA" no país. E de fato o texto prevê critérios para atuação dos entes federados e uma lista de conceitos a serem seguidos. No entanto, para especialistas ouvidos pela ConJur, as disposições não são sólidas o suficiente para nortear o uso dessas tecnologias.

Necessidade de regulação
Empresas que lidam com IAs argumentam que não seria necessário regular a aplicação dessas tecnologias, pois isso poderia limitar o seu potencial de desenvolvimento. Porém, Patricia Peck, sócia do escritório Peck Advogados e conselheira titular do Conselho Nacional de Proteção de Dados (CNPD), ressalta que a legislação não pode ser encarada apenas pelo ponto de vista privado. "IAs também são usadas pelo setor público", indica.

"É uma visão equivocada achar que a regulação sempre limita o potencial. Ela pode auxiliá-lo", afirma Eduardo Magrani, sócio do escritório Demarest e presidente do Instituto Nacional de Proteção de Dados (INPD).

Apesar de ser reconhecida a importância da regulamentação das IAs, Peck aponta que uma legislação muito superficial pode ser mais prejudicial do que a ausência de normas. A proposta do Marco Legal, segundo a advogada, ainda precisa ser complementada.

Texto abstrato
"O PL ainda está com uma redação muito principiológica e incipiente. Precisa ganhar musculatura, ser 'vitaminado', para se tornar uma lei implementável e eficaz, e assim guiar o mercado", diz Peck.

Cleia Viana/Câmara dos Deputados
Projeto de lei foi aprovado pela Câmara no fim de setembro
Cleia Viana/Câmara dos Deputados

Segundo Magrani, o projeto foi aprovado "sem um debate público robusto" e, por isso, se tornou superficial e simplório. Para o advogado, faltaram até mesmo princípios na redação do PL. Os conceitos inseridos ainda seriam "equivocados e muitas vezes insuficientes".

Já Peck entende que os conceitos e princípios são definidos de forma clara, o que demonstra um lado positivo. O grande problema seria a falta de outras disposições mínimas que a lei deveria ter: responsabilidade, penalidades, fiscalização, modelos de atualização (como autorregulação e códigos de conduta) e a obrigação de se fomentar campanhas educativas sobre o tema.

As mesmas críticas sobre um texto baseado apenas em padrões éticos levaram um grupo de especialistas ligados ao Instituto LGPD a apresentar à Câmara uma proposta de aperfeiçoamento do PL, com inserções de previsões mais práticas.

Responsabilização
Retirados do texto original do PL, os critérios de responsabilidade com relação às IAs ainda geram polêmica. Para Magrani, essas tecnologias são um "problema de muitas mãos". Um erro de desempenho da IA pode ser causado pelo designer do produto, pelo programador, pelo usuário, pela própria autonomia relativa do robô ou mesmo por um somatório de agentes.

Segundo Peck, não existem critérios específicos que possam sempre estabelecer quem é o responsável. Há apenas a definição de três níveis de responsabilização: do usuário, do proprietário e do fabricante. Mesmo assim, "a lei poderia trazer um rol e dizer que vai ser apurado conforme a análise do caso".

Wikimedia Commons
Carros autônomos, que se deslocam sem motorista, usam tecnologias de IA
Wikimedia Commons

Exemplo internacional
Uma saída para complementar a legislação sugerida seria observar modelos de outros países. Magrani lembra que, na Europa, discute-se a complexidade do próprio conceito de IA. Além disso, a própria regulação destrincha quais riscos cada tipo de tecnologia pode acarretar e o que as empresas precisam fazer conforme o risco. Segundo ele, "o maior problema do PL é não estar alinhado com as boas práticas internacionais".

"O Brasil está atrasado nessa matéria", pontua Peck. Dentre países mais avançados, ela cita a Alemanha, a China, o Canadá e os EUA. Neste último há inclusive um caminho que, segundo a advogada, pode ser mais eficiente: uma legislação setorizada. O país conta com normativas específicas para cada tipo de IA, como carros autônomos, drones, algoritmos da área da saúde etc. "Assim, a legislação fica mais pragmática", complementa.

Mais importante ainda seria pensar toda a regulação pela perspectiva internacional. "IAs não são um tema isolado em um país. Assim como a internet, elas têm um impacto multiterritorial, que deveria ser levado em conta", destaca a advogada. A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) propõe um código de ética global para o uso de IAs.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!