Direito Digital

A inteligência artificial e a
comunidade LGBTQIAPN+

Autor

  • Bernardo Fico

    é advogado graduado em Direito pela Universidade de São Paulo pós-graduado em Direito Digital pela Universidade Estadual do Rio de Janeiro e mestre em Direito pela Northwestern Pritzker School of Law (Chicago EUA).

29 de junho de 2023, 10h11

A proteção jurídica à comunidade LGBTQIAPN+[1] tem evoluído continuamente, mas ainda há muito a ser alcançado. Alvo de repetidos casos de discriminação, que variam desde exclusão social até violência física, é crucial nos atentarmos às possíveis repercussões negativas do desenvolvimento de novas tecnologias, especialmente para grupos marginalizados.

Enquanto o debate sobre a regulação tecnológica é imprescindível, minorias sociais não podem perder de vista a necessidade de discutir os diferentes impactos que a tecnologia pode lhes causar. Para isso, é necessário conhecer os riscos que a inteligência artificial (IA) pode trazer para a comunidade LGBTQIAPN+, assim como os potenciais benefícios que podem ser alcançados por meio dela.

ConJur
A má utilização da IA pode ameaçar significativamente direitos e bem-estar de pessoas LGBTQIAPN+. Apesar dos inegáveis avanços na criação e garantia de direitos dessa comunidade, esse progresso é conquistado aos poucos e não é uniforme ao redor do mundo; um em cada três países ainda criminaliza relações homossexuais, por exemplo.

[2] No Brasil, apesar de não haver criminalização, temos altos índices de violência contra pessoas LGBTQIAPN+.[3] Nesse cenário, a aplicação em larga escala de tecnologias de IA pode ser problemática em diversos aspectos.

Uma das propostas de aplicação de tecnologias de IA é a de identificação de pessoas LGBTQIAPN+. A possibilidade de identificar orientação sexual e/ou identidade de gênero por meios tecnológicos é, por si só, problemática. Algumas tecnologias, que já foram testadas com esse tipo de aplicação, incluem reconhecimento facial e análise de dados.

Atualmente, algoritmos de reconhecimento facial podem ser utilizados para identificar pessoas com base em suas características físicas. O reconhecimento facial já foi usado em estudos (amplamente criticados) que buscavam correlacionar características físicas e orientação sexual e/ou identidade de gênero, como no caso em que um professor estadunidense usou perfis de aplicativos de namoro para treinar e testar a tecnologia.[4]

Da mesma forma, o comportamento online de cada pessoa pode ser usado para classificá-la por suas características (e.g. interesses, tempo de navegação, faixa etária, etc.). É com base nessa lógica que algoritmos como os de direcionamento de conteúdo realizam a personalização de interesses por usuário. Nos últimos anos, empresas de tecnologia têm limitado o uso de características como orientação sexual e identidade de gênero[5] para esses propósitos em atenção às posições de grupos organizados da sociedade civil que questionam a adequação dessa finalidade.

Ignorando a discussão quanto à qualidade e acurácia desse tipo de identificação (e.g. grau de acerto), ambas as tecnologias implicam questões éticas relevantes. Primeiro, a privacidade individual é violada quando a orientação sexual de alguém é identificada sem seu conhecimento. Por exemplo, usar qualquer tecnologia para identificar corretamente ou não (Corte Interamericana, Flor Freire vs Equador, 2016)[6] a orientação sexual ou a identidade de gênero de uma pessoa implica tratar informações sensíveis a respeito daquele indivíduo.[7]

Por isso, essa identificação não pode acontecer sem uma base legal adequada, nos termos do artigo 11 da Lei Geral de Proteção de Dados Pessoais. A questão é tão enraizada que até mesmo a Comissão Europeia já chamou atenção para os riscos de discriminação de pessoas que "parecem ser gays", independentemente de serem ou não.[8] Isto é, a violação de privacidade acontece mesmo que a inferência realizada esteja incorreta.

Segundo, esse tipo de sistema pode implicar discriminação e viés algorítmico em prejuízo de pessoas LGBTQIAPN+. Se os algoritmos são treinados com dados tendenciosos ou não representativos, eles podem perpetuar preconceitos e estereótipos existentes ou gerar novas formas de discriminação.

Os problemas que a IA pode gerar caso seja treinada com informações tendenciosas são muitos. Essa falha já foi largamente demonstrada em relação a pessoas negras, como no caso da identificação incorreta de um casal negro em fotos[9] ou na análise de probabilidade de reincidência de infratores que prejudicava pessoas negras com base em sua etnia.[10]

De maneira resumida, este tipo de problema pode ocorrer pela falta de representatividade nos dados (e.g. poucas informações a respeito de um grupo) ou pela representação tendenciosa (e.g. informações que reproduzem preconceitos sociais enraizados).

No caso da comunidade LGBTQIAPN+ a reprodução automatizada desses padrões pode se dar em diferentes situações como seleções de emprego, scores de crédito, direcionamento de conteúdo, dentre outros, alguns com maior ou menos potencial de dano aos titulares dos dados pessoais.

Por exemplo, se um algoritmo de triagem de currículos considerar orientação sexual e identidade de gênero em suas decisões — além da necessidade de consentimento e considerações de proteção de dados — há o risco de que a base de dados usada para treinar a IA seja tendenciosa contra pessoas LGBTQIAPN+, especialmente em relação a pessoas trans, que, historicamente, tem menor empregabilidade e menor reconhecimento de suas competências profissionais.

Para além desses problemas, em uma perspectiva prática, esse tipo de aplicação pode ser usado inclusive em perseguições à comunidade. Por exemplo, aplicativos de relacionamento LGBTQIAPN+ (particularmente aqueles focados em relacionamentos homossexuais) já foram denunciados de maneira recorrente em relação às suas práticas questionáveis de segurança.[11]

Nos últimos anos, as denúncias variaram entre vazamentos de dados, possibilidade de triangulação de usuários (i.e. capacidade de terceiros mal-intencionados identificarem com precisão de metros a localização de uma pessoa no aplicativo), e até mesmo o uso dos aplicativos para perseguir ativamente usuários em países nos quais há criminalização da homossexualidade. Com o desenvolvimento da IA, esse tipo de risco se acirra ao facilitar as ações maliciosas contra essa população.

No entanto, a IA também oferece oportunidades para avanços significativos na promoção da inclusão da população LGBTQIAPN+. Por exemplo, a tecnologia pode ser utilizada para criar espaços virtuais seguros onde essa comunidade possa se expressar e interagir livremente, para criar conteúdo relevante para essa população, para avançar estudos voltados às especificidades de saúde dessas pessoas para promover serviços relevantes para as necessidades de pessoas LGBTQIAPN+, etc.

Entre riscos e benefícios em potencial, a IA passou a ser uma ferramenta relevante em nosso dia-a-dia. O avanço de direitos da população LGBTQIAPN+ no Brasil não elimina os desafios enfrentados pela comunidade, mas deve auxiliar na condução de como exploraremos a capacidade dessa tecnologia. É fundamental que estejamos a par dos desafios éticos nascentes e que busquemos as salvaguardas necessárias para proteger não somente a população em geral, mas as minorias sociais nos aspectos em que novas tecnologias as impactem de maneira distinta. As políticas e regulamentações que hoje se discutem ao redor do mundo devem ser estabelecidas visando garantir desenvolvimento e uso éticos e responsáveis da tecnologia, respeitando os direitos humanos e a dignidade dos indivíduos.

 


[1] O acrônimo atualmente designa: lésbicas, gays, bissexuais, transgêneros, queer, intersexo, assexuais, pansexuais e não-binários, além de demais orientações sexuais e identidades de gênero não representadas por meio do “+".

[2] https://ilga.org/downloads/ILGA_World_State_Sponsored_Homophobia_report_global_legislation_overview_update_December_2020.pdf

[3] https://observatoriomorteseviolenciaslgbtibrasil.org/doacao/ong-lgbt/?gad=1&gclid=Cj0KCQjwtO-kBhDIARIsAL6LordhrVmJ7roRUu5zyrvnWlD9emKXVGHT2cyxmlKb1VhSDKSHsi8c3NQaAu4LEALw_wcB

[4] https://www.nytimes.com/2017/10/09/science/stanford-sexual-orientation-study.html

[5] https://www.forbes.com/sites/annakaplan/2021/11/09/meta-says-it-will-limit-ad-targeting-based-on-race-sexual-orientation-political-affiliation-and-more/?sh=2acda56b6ec4; https://support.google.com/adspolicy/answer/143465?hl=en

[6] https://www.corteidh.or.cr/docs/casos/articulos/seriec_315_esp.pdf

[7] https://www.scielo.br/j/rdp/a/sjf8hNGcJs3v9L7kf8y6GLt/abstract/?lang=en

[8] https://cordis.europa.eu/article/id/252276-why-possessing-a-gay-voice-can-lead-to-discrimination

[9] https://www.bbc.com/news/technology-33347866

[10] https://www.nytimes.com/2017/10/26/opinion/algorithm-compas-sentencing-bias.html

[11] https://www.vice.com/en/article/wx57nm/grindr-has-been-warned-for-years-about-its-privacy-issues

Tags:

Encontrou um erro? Avise nossa equipe!