Opinião

Destaques do seminário da comissão de juristas de inteligência artificial do Senado

Autor

  • Filipe Medon

    é doutorando e mestre em Direito Civil (Uerj) membro da comissão de juristas do Senado responsável pela elaboração de substitutivo do Marco Legal da Inteligência Artificial e coordenador de proteção de dados e inteligência artificial da Comissão de Proteção de Dados e Privacidade da OAB-RJ.

    View all posts

5 de julho de 2022, 12h11

Nos último dias 9 e 10 de junho ocorreu no Senado, em sistema híbrido, o Seminário Internacional da Comissão de Juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial. O evento, que reuniu 26 especialistas de renome de todo o mundo, representou importante marco nas atividades legislativas. Ao longo de sete painéis, foram enfrentadas questões como: fundamentos da regulação, técnicas regulatórias, abordagens baseadas em risco, proteção de dados, sistemas de responsabilização, transparência, vieses, devido processo na tomada de decisões automatizadas, perspectivas setoriais, além de experiências comparadas. À luz da riqueza do material que se encontra disponível, tanto no canal do Senado no YouTube, quanto por meio das notas taquigráficas no site da Comissão do Senado, o breve escopo deste artigo buscará examinar apenas alguns dos pontos mais sensíveis abordados pelos painelistas, não tendo, sob nenhum caráter, qualquer natureza de manifestação a nível institucional por parte dos membros que integram a comissão.

Definição de inteligência artificial
O primeiro ponto sensível diz respeito à definição de inteligência artificial a ser adotada pela futura legislação. Nota-se, a esse respeito, instigante controvérsia entre os próprios painelistas: deve-se, ou não, seguir as definições apresentadas pela OCDE e pela Proposta de Regulação da União Europeia (AI Act)? Logo na primeira mesa, o cientista da computação Stuart Russell — um dos mais notórios especialistas em IA no mundo — fez a ressalva de que eventual definição não poderia ser limitada à técnica do aprendizado de máquina (machine learning). Segundo Russell, há diversos sistemas de IA, inclusive usados por governos, que não envolvem machine learning em qualquer etapa e que, nem por isso, deixam de ser considerados como de IA. Daí a necessidade de se adotar definições mais abrangentes, sob pena de não contemplar riscos oriundos de sistemas de IA que não se apoiem no aprendizado de máquina, mas sejam igualmente perigosos. Por outro lado, especialistas como Courtney Lang, que representava o Conselho Industrial de Tecnologia e Informação (ITI), sediado nos Estados Unidos da América, defenderam a adoção da definição da OCDE.

Ainda nessa discussão, Mireille Hildebrandt alertou para a necessidade de que a definição de IA a ser adotada deve se ater mais aos impactos para os cidadãos do que para os aspectos estritamente técnicos, descolados da realidade concreta em que se insere e se aplica. Isso revela como o ajuste fino nesta definição de IA é vital, porque diz respeito ao próprio escopo de aplicação da futura legislação, a exemplo do que se discute em relação aos dados pessoais, sensíveis e anonimizados no âmbito da Lei Geral de Proteção de Dados Pessoais.

Matriz de riscos
Segundo ponto sensível atine aos riscos decorrentes da inteligência artificial. Uma primeira consideração fundamental — e que se revelou consensual —, é de que a regulação a partir dos riscos não deveria recair sobre a tecnologia em si, mas sim sobre os usos da inteligência artificial. Isso porque, como exemplificou Christian Troncoso, representante da Business Software Alliance (BSA), um único sistema de IA poderia ser utilizado por um restaurante para, ao mesmo tempo, analisar sugestões de consumidores sobre os pratos — o que representaria baixo risco —, e, por outro lado, selecionar currículos para vagas de trabalho, representando um risco mais alto e que deveria estar sujeito a maior escrutínio.

A especialista holandesa Mireille Hildebrandt pontuou que nenhum tipo de regulação conseguirá eliminar os riscos totalmente. O que se busca, assim, é que se antecipe aos riscos, mitigando-os quando possível. O objetivo prioritário passa a ser, portanto, gestão dos riscos, o que envolve documentação e, sobretudo, a realização de avaliações de impacto, tida como imprescindível pela maior parte dos especialistas ouvidos, ainda que seja controverso se todos os tipos de IA demandariam esse tipo de abordagem regulatória. Nessa direção, Alessandro Mantelero apontou que se discutiu no âmbito do Parlamento Europeu se esse tipo de avaliação deveria ser deixado apenas para riscos mais altos, numa em uma espécie de trade-off com o setor privado. Importante foi a ressalva feita por Eike Graef de que a verificação do compliance com os direitos fundamentais deve ser verificada a partir da utilização da IA na prática. Nessa direção, Mireille Hildebrandt, destacou ser essencial construir uma proteção legal pelo design em caso de riscos a tais direitos, permitindo-se a existência de freios e contrapesos dentro dos próprios sistemas.

É digno de nota, também, a defesa de Hildebrant da superação do paradigma do "human in the loop', para a construção de uma supervisão humana efetiva (effective human oversight). Segundo a especialista, a simples presença de um ser humano seria inútil, caso não atendesse a alguns comandos básicos, na linha do que se propõe no artigo 14 do AI Act, como a capacidade concreta de interpretar os outputs dos sistemas de IA, eventualmente tomando o seu controle para evitar danos, além de estar atento aos riscos dos vieses de automação (automation bias), que podem fazer com que se confie em demasia em uma decisão pelo simples fato de ter sido tomada por uma máquina inteligente.

O seminário evidenciou, ainda, três problemáticas fundamentais envolvendo: a matriz de gradação de riscos adotada pela futura legislação, a possibilidade de banimento de práticas que acarretem riscos inaceitáveis, além da identificação de quais práticas estariam enquadradas em cada nível de risco.

Em relação à matriz, ressalta-se a crítica de Indra Spiecker sobre uma regulação que, tal como propõe o Parlamento Europeu, categorize a IA em apenas quatro níveis de risco, o que não seria compatível com a complexidade desta ferramenta tecnológica. Para Stuart Russell, sistemas de recomendação em mídias sociais deveriam ser encarados como de alto risco e IAs aplicadas em contextos de armas letais deveriam ser tidas como inaceitáveis. Irina Orssich, por sua vez, apontou que IAs de alto risco, como aquelas aplicada em recrutamento, não deveriam ser proibidas, mas deveriam obedecer a padrões mais rígidos de conformidade e avaliação, validação e testagem prévia, com maior transparência para os usuários, além da exigência de monitoramento posterior à entrada em circulação dos sistemas. Inaceitável seria, por exemplo, a prática do social scoring.

Ainda sobre os riscos, interessante debate foi travado entre as especialistas Bojana Bellamy e Carly Kind. Para a primeira, dever-se-ia balancear a regulação da IA a partir do risco com o fato de que a imposição de muitas regras poderia eventualmente impedir a colocação de IAs benéficas em circulação. Kind, por outro lado, em franca discordância, procurou ressaltar que a pergunta deveria recair sobre o que se quer de Inteligência Artificial para a sociedade, deixando de ver a sua implementação como uma inevitabilidade.

O risco é, inquestionavelmente, elemento chave no debate.

Discriminação algorítmica e correção de vieses
Outro ponto sensível diz respeito à discriminação algorítmica e à correção de vieses, o que se relaciona umbilicalmente com o tratamento e a proteção de dados pessoais. Muitas foram, no entanto, as abordagens e sugestões dos painelistas. Anupam Chander, professor da Universidade de Georgetown (EUA), por exemplo, reconhece a extrema dificuldade em se eliminar os vieses algorítmicos, mas defende a criativa solução de ações afirmativas algorítmicas, a fim de se intervir diretamente na programação para reduzir resultados indesejados, uma vez que a transparência seria uma solução limitada. Nada obstante, Chander defende que haja transparência nos inputs e outputs dos algoritmos a fim de permitir que pesquisadores independentes e agências reguladoras governamentais possam investigar resultados discriminatórios.

Questão polêmica levantada em diversas mesas se relacionou ao fato de que haveria aparente tensão entre as normas de proteção de dados e o aperfeiçoamento de algoritmos enviesados. Isso porque, se de um lado, o princípio da necessidade exige a minimização dos dados, por outro lado, observa-se que as IAs precisam de muitos dados para evoluir. O que fazer, então, se, para evitar a discriminação, um algoritmo de reconhecimento facial precisa, justamente, de mais dados? A questão, segundo Gabriela Zanfir-Fortuna, não seria resolvida no terreno da incompatibilidade, mas no da complementação entre as regras da Lei Geral de Proteção de Dados Pessoais e as necessidades tecnológicas impostas pela Inteligência Artificial. Já para Alessandro Mantelero, os princípios clássicos da proteção de dados podem ser considerados, mas precisariam ser relidos a partir de uma perspectiva técnica. Teki Akuetteh sinalizou que o princípio da minimização talvez não se aplique a todos os contextos de IA, enquanto Robin Wetherill rechaçou a existência de inconsistência entre os princípios de proteção de dados e a IA, ressaltando que alguns dos direitos trazidos por tais princípios mostram-se mais urgentes, na medida em que certas técnicas de IA podem transformar a natureza de um dado pessoal a partir da forma como seu tratamento é realizado. Finalmente, foi debatida a extensão da necessidade de supervisão humana do funcionamento de certos tipos de IA, ou seja: quais tipos de IA demandariam supervisão?

Responsabilidade Civil
Em uma das mesas mais aguardadas, Teresa Rodríguez de Las Heras Ballel, David Vladeck e Mafalda Miranda Barbosa fecharam o seminário, apresentando inúmeras polêmicas sobre o tema que vem sendo objeto de acaloradas discussões doutrinárias ao longo dos últimos meses: afinal, é preciso regular a responsabilidade civil pelos danos causados pela IA? Se positiva for a resposta, qual seria a melhor abordagem regulatória?

Em sua exposição, após mapear os pontos de disrupção provocados pela IA na seara da responsabilidade civil, Teresa de Las Heras detalhou as propostas de regulamentação do Parlamento Europeu. Merece destaque o fato de que não há ainda sequer um consenso acerca da necessidade de se legislar o tema, que segue caminho próprio e independente em relação ao AI Act, num complexo quebra-cabeças regulatório. Segundo a professora da Universidade Carlos III de Madrid, a opção de não regular ainda está na mesa. Uma certeza, por outro lado, recai sobre a atualização da Diretiva 85/374/CEE do Conselho, de 25 de Julho de 1985, que regula a responsabilidade dos produtores e que serviu de inspiração para o Código de Defesa do Consumidor brasileiro.

Teresa ressaltou a sugestão do Parlamento Europeu da criação da figura do operador de inteligência artificial, que não se confundiria, em princípio, com o produtor/fabricante. Em relação a este último, o regime de responsabilidade civil continuaria seguindo a lógica da Diretiva 85, marcada por hipóteses de natureza objetiva, tal qual o CDC brasileiro. Caso haja coincidência, isto é, se no caso concreto operador e produtor sejam a mesma pessoa, aplicar-se-ia a Diretiva 85 em caso de defeito no produto ou serviço. Em relação aos operadores, haveria dois regimes principais a depender do tipo de risco da IA: se de alto risco, seria aplicável um regime de natureza objetiva. Se de baixo, risco, um regime fundado na culpa – em princípio – presumida. O enquadramento das IAs em alto e baixo risco dependeria da previsão em um anexo à resolução do Parlamento Europeu, o que, se por um lado pode trazer previsibilidade e segurança jurídica para o mercado, por outro lado, pode representar um engessamento da aplicação da norma para casos de IAs que posam surgir como de baixo risco, mas, ao longo de sua utilização, se mostrem de alto risco. Além disso, segundo Teresa, haveria IAs que, ao mesmo tempo, podem ser usadas em funções de alto e baixo risco. Por essas razões, a professora opina categoricamente no sentido de que a melhor solução seria a previsão de padrões, critérios e standards flexíveis, em vez da previsão abstrata em um anexo.

Mafalda Miranda Barbosa, por seu turno, ainda rechaçou veementemente a ideia de atribuição de personalidade jurídica aos algoritmos como expediente para resolver a complexidade apresentada pela IA na seara da responsabilidade civil. Além disso, a professora da Universidade de Coimbra teceu críticas à adoção de fundos compensatórios como solução prioritária, ressaltando, por outro lado, o interessante caminho da securitização obrigatória, embora a limitação dos montantes indenizatórios precise ser avaliada com cautela, sob pena de se afigurarem insuficientes. Barbosa aludiu, ainda, à eventual necessidade de ampliação das hipóteses de responsabilidade civil objetiva. Sobre este ponto, não é demais recordar que o Código Civil Brasileiro, diferentemente de outros ordenamentos europeus, não adota uma regulação taxativa das hipóteses de responsabilidade objetiva, haja vista a existência de cláusulas gerais, como aquela constante do parágrafo único do artigo 927 do Código Civil.

David Vladeck, por derradeiro, apresentou a perspectiva norte-americana a respeito do assunto, centrando sua análise em exemplos relacionados a veículos autônomos, os quais já causaram diversos danos em seu país. Sua primeira ressalva passou pelo fato de que haveria sensível diferença, em termos de responsabilidade civil, entre as IAs utilizadas atualmente e aquelas completamente autônomas, que começam a ser empregadas em maior escala. Outro ponto central levantado pelo professor da Universidade de Georgetown e ex-diretor do Escritório de Proteção ao Consumidor da Federal Trade Commission (FTC), diz respeito à dificuldade em se identificar o nexo de causalidade em sistemas de IA mais complexos, o que acaba repercutindo diretamente na distribuição do ônus da prova e eventual apuração da culpa.

Considerações finais
Os pontos delineados neste hercúleo esforço de síntese — dada a densidade das 26 falas — foram apenas alguns dos muitos abordados nas ricas discussões apresentadas pelos painelistas. Abordagens regulatórias e sancionatórias também foram bastante enfrentadas, havendo contribuições até mesmo na defesa da atuação da ANPD no contexto da inteligência artificial, ou da criação de agência específica independente para atuar no contexto fiscalizatório, como sugeriu Wolfgang Hoffmann-Riem.

Especialistas como Patricia Aufderheide destacaram, ainda, a necessidade de se revisitar as normas sobre direitos autorais, a fim de se adicionar exceções que viabilizem a mineração de texto e dados por pesquisadores independentes, como passo fundamental para a pesquisa no campo da inteligência artificial. Além disso, afirmou-se o quanto a previsão de regras claras para os diversos players do mercado poderia representar importante contributo ao desenvolvimento tecnológico, buscando-se, ademais, como pontuou Christina Montgomery, a harmonização e interoperabilidade com a experiência internacional. Hans Micklitz lançou luzes para a importância de se considerar os consumidores no contexto da inteligência artificial, haja vista o grande impacto para seus direitos. Marc Rotenberg, por seu turno, alertou para a necessária reflexão sobre a proteção do meio-ambiente.

Finalmente, aspecto imprescindível gira em torno da consideração de que, a depender da velocidade da tramitação legislativa, o Brasil pode vir a ser um dos first-moveres na onda global de regulação da inteligência artificial, o que espelha cuidados, especialmente a fim de se evitar inspirações em propostas de regulamentação que sequer podem vir a ser aprovadas. Como ressaltaram Jake Okechukwu e Nanjira Sambuli, o Brasil pode exercer verdadeira liderança no sul global, servindo de modelo não apenas para a África, como para o mundo em geral. Necessário, por outro lado, que a futura legislação se atente para as peculiaridades locais, tendo a centralidade dos direitos humanos como pilar essencial.

Os desafios, como se pode facilmente notar, são amplos e complexos. Se a missão da comissão de juristas já era árdua, torna-se ainda mais laboriosa, uma vez que não parece haver dúvidas de que o futuro Marco Legal da Inteligência Artificial abre uma janela de oportunidades para o desenvolvimento tecnológico no Brasil, que pode servir de inspiração para diversos países. Apesar das muitas dúvidas, pelo menos uma certeza já parece ser inabalável: o Marco Legal da IA não pode ser uma mera carta de princípios e boas intenções. É preciso concretizar direitos.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!