Opinião

Privacidade diferencial: abordagem jurídica para proteção de dados em sistemas de IA

Autor

  • Mariana Sbaite Gonçalves

    é graduada em Direito pela Universidade Católica de Santos (UniSantos) mestranda em Science in Legal Studies pela Ambra Univertisity (EUA) LLM em Proteção e Dados: LGPD e GDPR pela FMP e Faculdade de Direito da Universidade de Lisboa DPO (data protection officer) e information security officer (I.S.O.) certificada pela Exin MBA em DPO pelo Iesb e pós-graduada em Direito da Proteção e Uso de Dados (PUC-Minas) em Direito e Processo do Trabalho (Damásio de Jesus) e em Advocacia Empresarial (PUC-Minas).

6 de maio de 2024, 13h16

Com a crescente quantidade de dados pessoais sendo tratados e utilizados em sistemas de inteligência artificial (IA), a proteção da privacidade dos usuários tornou-se uma preocupação em todo o mundo. Neste contexto, o conceito de privacidade diferencial surge como uma abordagem promissora para garantir a proteção dos dados pessoais enquanto se mantém a utilidade e eficácia dos sistemas de IA.

Freepik

A privacidade diferencial é uma técnica de privacidade para anonimização dos dados, que oferece uma forte garantia de privacidade (independentemente do que os atacantes saibam). Ela funciona com valores agregados e impede que os atacantes deduzam a existência de um registro individual a partir dos valores agregados (por exemplo, soma das contagens de pacotes). A ideia principal é adicionar ruído suficientemente grande (segundo uma distribuição específica designada por Laplace ou dupla exponencial) para ocultar o impacto de um único registo de rede.

No que se refere à anonimização, dispõe a Lei Geral de Proteção de Dados Pessoais (LGPD) — Lei nº 13.709/2018, em seu artigo 5º: “Para os fins desta Lei, considera-se: XI — anonimização: utilização de meios técnicos razoáveis e disponíveis no momento do tratamento, por meio dos quais um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo”.

Um dos mecanismos mais utilizados para responder a questões numéricas é a adição de ruído calibrado: adicionar ruído suficiente ao resultado para mascarar a contribuição de qualquer indivíduo possível nos dados, preservando ao mesmo tempo a precisão geral da análise.

Ao adicionar ruído, é utilizado o processo chamado de perturbação de dados, no qual os dados originais são modificados de alguma forma para tornar mais difícil identificar informações específicas sobre indivíduos. O objetivo principal da perturbação de dados é proteger a privacidade das pessoas representadas nos dados. Ao tornar os dados menos identificáveis, reduz-se o risco de que informações sensíveis ou pessoais possam ser extraídas deles.

A perturbação de dados é geralmente feita de forma a tornar as informações fornecidas pelo modelo não mais relacionadas a um indivíduo específico, mas sim ao conjunto de dados como um todo, significando que, os resultados ou insights derivados do modelo não podem ser atribuídos a uma pessoa em particular, mas apenas ao conjunto de dados em que foram baseados.

Outro ponto importante é a relação utilidade x privacidade dos dados. Manter um equilíbrio entre a utilidade dos dados e a garantia da privacidade dos indivíduos é um desafio complexo. Isso porque, quanto maior a utilidade dos dados, menor é sua privacidade, e vice-versa. Encontrar um ponto de equilíbrio entre esses dois aspectos é crucial para garantir tanto a utilidade quanto a segurança dos dados.

Spacca

E a referida complexidade toma maior proporção quando envolvemos sistema de IA nesse jogo. Como preservar a privacidade na utilização de sistemas de IA? Como as legislações atuais têm tratado o tema?

Em seu artigo “Artificial Intelligence and Privacy”, Daniel J. Solove traz um ponto interessante: “É necessário compreender os problemas de privacidade suscitados pela IA. Para determinar como é que a lei deve regular, onde é que a lei existente fica aquém e que alterações ou aditamentos devem ser feitos à lei, é crucial compreender o panorama geral. A IA envolve algoritmos que consomem inputs e produzem outputs. Os problemas de privacidade surgem tanto com os inputs como com os outputs. Estes problemas de privacidade muitas vezes não são novos; são variações de problemas de privacidade de longa data. Mas a IA remistura os problemas de privacidade existentes de formas complexas e únicas. Alguns problemas são misturados de formas que desafiam os quadros regulamentares existentes. Em muitos casos, a IA exacerba os problemas existentes, ameaçando muitas vezes levá-los a níveis sem precedentes”.

O referido artigo destaca a importância de compreender os desafios específicos de privacidade apresentados pela IA e a necessidade de ajustar a legislação para lidar com esses desafios de maneira eficaz, o que inclui reconhecer as complexidades únicas trazidas pela IA e garantir que as regulamentações sejam adaptadas para abordar esses novos cenários de maneira adequada.

Princípios da LGPD

No Brasil, a LGPD estabeleceu diretrizes abrangentes para o tratamento de dados pessoais por organizações públicas e privadas, trazendo definições e estabelecendo princípios a serem seguidos. A mencionada lei exige que as organizações implementem medidas adequadas de segurança e proteção dos dados pessoais, garantindo que apenas informações necessárias sejam coletadas e processadas, e que os indivíduos tenham controle sobre seus dados, o que se aplica claramente do contexto da IA.

A privacidade diferencial surge como uma abordagem eficaz para atender a esses requisitos, permitindo que os dados sejam analisados e compartilhados de forma a proteger a privacidade dos usuários, mantendo, ao mesmo tempo, a utilidade e eficácia dos sistemas de IA.

Na União Europeia, o GDPR é a principal legislação de proteção de dados pessoais e estabelece padrões rigorosos para o tratamento de dados pessoais. No contexto da IA, o GDPR impõe requisitos específicos para o tratamento de dados pessoais em sistemas automatizados de tomada de decisão, como aqueles baseados em algoritmos de IA.

As organizações são obrigadas a garantir que seus sistemas de IA sejam transparentes, justos e não discriminatórios, e que os usuários tenham controle sobre suas informações pessoais. A privacidade diferencial pode ajudar a atender a esses requisitos, permitindo que os dados sejam analisados e compartilhados de forma a proteger a privacidade dos usuários, minimizando o risco de discriminação ou viés algorítmico.

Nos Estados Unidos, a HIPAA é uma lei federal que estabelece padrões para a proteção e segurança das informações de saúde dos indivíduos. A lei define informações de saúde protegidas (PHI — Protected Health Information) como qualquer informação relacionada à saúde de uma pessoa identificada ou identificável e estabelece requisitos rigorosos para o tratamento e compartilhamento dessas informações por organizações de saúde e provedores de serviços de saúde.

No contexto da IA em saúde, a HIPAA impõe restrições específicas ao uso e divulgação de PHI em sistemas de IA garantindo que as informações de saúde dos pacientes sejam protegidas contra uso indevido ou acesso não autorizado. A privacidade diferencial pode ser uma ferramenta eficaz para garantir a conformidade com a HIPAA, permitindo que os dados de saúde sejam analisados e compartilhados de forma a proteger a privacidade dos pacientes, enquanto ainda permite a análise e o desenvolvimento de soluções inovadoras na área de saúde.

A privacidade diferencial surge como uma abordagem promissora para proteger a privacidade dos usuários em sistemas de IA garantindo ao mesmo tempo a utilidade e eficácia desses sistemas.

Sob uma perspectiva jurídica, a privacidade diferencial ajuda as organizações a atenderem às exigências das legislações de privacidade e de proteção de dados pessoais, como a LGPD, o GDPR e a HIPAA, por exemplo, garantindo a conformidade legal e promovendo a confiança dos usuários na tecnologia da IA.

Ao adotar medidas de privacidade diferencial, as organizações podem garantir que seus sistemas de IA sejam éticos, transparentes e responsáveis, protegendo assim os direitos e interesses dos indivíduos em um mundo cada vez mais digitalizado e conectado.

__________________________

Referências

https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm

https://www.hhs.gov/hipaa/index.html

https://gdpr-info.eu/

https://ripe74.ripe.net/presentations/20-Ripe-Presentation.pdf

https://www.statice.ai/post/what-is-differential-privacy-definition-mechanisms-examples

https://deliverypdf.ssrn.com/delivery.php?ID=485064027065077078089075101021119107009048072043057026110094118069119002009107067073038010111048053030011028102092091114071069121075061013081113009067005112064102049081067103113088029072095121010002085026089065096107112000029069079070103099012014103&EXT=pdf&INDEX=TRUE

Autores

Encontrou um erro? Avise nossa equipe!