Como inovar com ética em IA em um cenário de regulação emergente
23 de setembro de 2024, 16h24
A inteligência artificial está transformando diversos setores, desde o consumo de informações até a operação de grandes empresas. Bancos, como o Santander, utilizam IA para prever inadimplências com base em dados históricos, enquanto a Amazon otimiza a logística de seus produtos para prever demandas e ajustar estoques em tempo real. No Brasil, a Agrosmart usa IA para monitorar plantações, otimizando o uso de recursos hídricos (Agrosmart, [s.d]).

Contudo, o crescimento acelerado da IA levanta questões éticas e de responsabilidade. No Brasil, o PL (Projeto de Lei) 2.338/2023 visa regulamentar o uso da ferramenta, com foco em transparência, responsabilidade e direitos fundamentais, mas enfrenta entraves por divergências sobre a extensão da regulação (Brasil, 2023).
Na União Europeia, o AI Act entrou em vigor em 2024, impondo exigências rigorosas para a ferramenta em setores críticos, como saúde e segurança pública (European Commission, 2024). Nos Estados Unidos, a AI Accountability Act de 2023 exige avaliações de impacto, complementada pelas diretrizes do Nist sobre segurança e robustez em IA (NIST, 2023).
Princípios para o uso ético da IA
Transparência: empresas devem ser claras sobre o funcionamento de suas tecnologias e coleta de dados. A IBM, por exemplo, adota “cartões de fato” para explicar como seus algoritmos tomam decisões (IBM, [s.d.]).
Privacidade e segurança: Medidas robustas de segurança, como protocolos de criptografia, são essenciais para proteger dados sensíveis, especialmente em setores como saúde (NIST, 2023).
Justiça e não discriminação: Auditorias regulares e a diversificação de dados ajudam a evitar preconceitos nos algoritmos. Ferramentas como o AI Fairness 360 Toolkit da IBM promovem a equidade (IBM, [2023]).
Responsabilidade: Empresas devem ser responsáveis pelos impactos sociais de suas tecnologias, como a Parceria de IA da União Europeia, que promove a reparação em casos de danos. A SAP criou um comitê de ética para revisar o impacto de suas soluções (SAP, [s.d.]).
Benefício social: Organizações como a Rainforest Foundation utilizam IA para monitorar o desmatamento em tempo real, protegendo florestas tropicais (Rainforest Foundation US, 2023). A UNICEF usa IA para prever surtos de doenças em regiões carentes (Unicef, 2024).
Segurança e robustez: O Nist recomenda testes de estresse e validação contínua para garantir que sistemas de IA operem com segurança em diversas condições (NIST, 2023).
Consentimento informado: O consentimento deve ser claro e compreensível, como em aplicativos de saúde, onde os usuários devem estar cientes de como seus dados serão usados (USA, [2022?]).
Educação e formação: O AI Ethics Lab oferece programas de capacitação para que profissionais identifiquem problemas éticos antes do lançamento de um produto (AI Ethics Lab, [s.d.]).
Acessibilidade e inclusão: A IA deve ser inclusiva, como demonstrado pelo Inclusive Design Research Centre, que desenvolve ferramentas acessíveis para todos (Inclusive Design Research Centre, [s.d.]).
Responsabilidade pela decisão: A IA que toma decisões significativas deve ser revisada por humanos, como no modelo de apelação usado pelo governo do Reino Unido, que permite revisão de decisões automatizadas (Gov.UK, 2023).
Desafios éticos da autorregulação da IA
A autorregulação traz desafios como a falta de padronização e a possibilidade de conflitos de interesse, onde empresas podem sacrificar ética por lucratividade (Furman et. al, [s.d.]). Além disso, a transparência e a accountability podem ser comprometidas sem supervisão externa, gerando dificuldades para responsabilizar as empresas por decisões automatizadas (Whittlestone et al., 2019).
Outro desafio é o risco de discriminação, pois sem auditorias rigorosas, algoritmos podem perpetuar preconceitos sociais (Noble, 2018). A eficácia da autorregulação também depende da cultura ética da empresa, o que pode resultar em práticas mínimas apenas para evitar repercussões legais (Mittelstadt, 2019). Por fim, a desconfiança do público na capacidade das empresas se autorregularem pode limitar a aceitação das tecnologias de IA (Bryson; Diamantis; Grant, 2017).
Conclusão
Inovar com responsabilidade não é apenas uma exigência ética, mas também uma estratégia de negócios. As empresas que adotam práticas éticas em IA ganham a confiança dos consumidores e evitam riscos legais e reputacionais.
A conformidade com os princípios de transparência, privacidade, justiça e responsabilidade fortalece a imagem da empresa e garante que a IA seja utilizada de maneira benéfica para a sociedade como um todo.
Empresas que seguem as normas emergentes, tanto no Brasil quanto no exterior, não só garantem sua conformidade regulatória, mas também se destacam como líderes em inovação ética. Ao adotar práticas éticas e regulatórias robustas, essas empresas estão melhor preparadas para enfrentar os desafios futuros, assegurando que a IA seja usada de maneira ética, segura e em benefício de todos.
_______________________
Referências
AGROSMART. Tecnologia Agrícola. 2023. Disponível em: https://www.agrosmart.com.br. Acesso em: 4 set. 2024.
AI ETHICS LAB. [s. d.]. Disponível em: https://aiethicslab.com/. Acesso em: 10 set. 2024.
BRASIL. Senado Federal. Projeto de Lei nº 2338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Brasília, DF: Senado Federal, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 12 set. 2024.
BRYSON, Joanna J.; DIAMANTIS, Mihailis E.; GRANT, Thomas D. Of, for, and by the people: the legal lacuna of synthetic person. Artificial Intelligence and Law, [s. l.], v. 25, p. 273-291, 2017. Disponível em: https://link.springer.com/article/10.1007/s10506-017-9214-9. Acesso em: 11 set. 2024.
EUROPEAN COMMISSION. European approach to artificial intelligence. [S. l.]: European Commission, [2024]. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence. Acesso em: 18 set. 2024.
FURMAN, Jason et al. AIES’18: Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. In: Conference AIES. [S.l.:s.n], [s.d.]. Disponível em: https://dl.acm.org/doi/10.1145/3278721. Acesso em: 12 set. 2024.
GOV.UK. Committee on Standards in Public Life. Artificial Intelligence and Public Standards Report. [S. l.] : Committee on Standards in Public Life, 2023. Disponível em: https://www.gov.uk/government/publications/artificial-intelligence-and-public-standards-report. Acesso em: 5 set. 2024.
IBM. AI Fairness 360. [S. l.]: IBM, [2023]. Disponível em: https://www.ibm.com/opensource/open/projects/ai-fairness-360/. Acesso em: 18 set. 2024.
IBM. Watsonx.governance. [S. l.]: IBM, [s.d.]. Disponível em: https://www.ibm.com/products/watsonx-governance. Acesso em: 18 set. 2024.
INCLUSIVE DESIGN RESEARCH CENTRE (IDRC). 2023. Disponível em: https://idrc.ocadu.ca/. Acesso em: 4 set. 2024.
MITTELSTADT, Brent. Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, [s. l.], v. 1, p. 501-507, 2019. Disponível em: https://www.nature.com/articles/s42256-019-0114-4. Acesso em: 09 set. 2024.
NIST. Perspectives about the NIST Artificial Intelligence risk management framework. Gaithersburg: NIST, 2023. Disponível em: https://www.nist.gov/itl/ai-risk-management-framework/perspectives-about-nist-artificial-intelligence-risk-management. Acesso em: 17 set. 2024.
NOBLE, Safyia Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. Disponível em: https://nyupress.org/9781479837243/algorithms-of-oppression/. Acesso em: 9 set. 2024.
RAINFOREST FOUNDATION US. 2023 Annual Report. [S. l.]: Rainforest Foundation US, 2023. Disponível em: https://rainforestfoundation.org/about/financials-transparency/2023-annual-report/. Acesso em: 4 set. 2024.
SAP. Responsible AI: SAP business AI is designed for people to get their best work done, valuing human oversight and agency. [S. l.]: SAP, [s.d.]. Disponível em: https://www.sap.com/products/artificial-intelligence/ai-ethics.html. Acesso em: 5 set. 2024.
UNICEF. Precision Health: emerging innovations for children and adolescents. Nova Iorque: UNICEF, 2024. Disponível em: https://www.unicef.org/innovation/reports/precision-health-emerging-innovations-children-and-adolescents. Acesso em: 10 set. 2024.
USA. White House. Blueprint for AI bill of rights: making automated systems work for the american people. Pennsylvania: White House, [2022?]. Disponível em: https://www.whitehouse.gov/ostp/ai-bill-of-rights/. Acesso em: 4 set. 2024.
WHITTLESTONE, J. et al. The role and limits of principles in AI ethics: Towards a focus on tensions. In: Conference AIES. Honolulu, HI : [s.n.], 2019. Disponível em: https://dl.acm.org/doi/pdf/10.1145/3306618.3314289. Acesso em: 10 set. 2024.
Encontrou um erro? Avise nossa equipe!