Interesse Público

Uso da inteligência artificial requer um código de ética para os envolvidos

Autor

  • Sérgio Ferraz

    é advogado parecerista procurador aposentado do estado do Rio de Janeiro professor titular aposentado da Universidade Federal do Rio de Janeiro (UFRJ) e da PUC-Rio e doutor em Direito pela UFRJ.

12 de julho de 2018, 8h05

Spacca
O noticiário eletrônico do Supremo Tribunal Federal deu publicidade, recentemente, a seus procedimentos para a instalação, na mais alta corte, do Victor, equipamento de inteligência artificial (entre nós, IA; na origem norte-americana, AI).

Como divulgado e informado, o Victor (denominação que homenageia o inolvidável Victor Nunes Leal, pioneiro entre nós da sistematização da jurisprudência do Supremo), a início, terá como objetivo central a identificação de processos em que veiculados temas de repercussão geral (expressão que rotula um dos principais critérios de admissibilidade e conhecimento de recursos extraordinários).

Mas igualmente se noticia que, a esse passo inicial, seguirão etapas de ampliação do uso do Victor. Assim é que, em futuro por certo próximo, o valioso instrumento poderá desenvolver aptidões similares ao raciocínio humano, com mais rapidez e profundidade que as congêneres faculdades dos indivíduos. Como qualquer ferramenta avançada de IA, com o tempo tais instrumentos desenvolvem até mesmo uma atividade autônoma. Acredita-se, ao menos em teoria, que assim as decisões judiciais poderão ganhar em celeridade, segurança e previsibilidade. E tudo isso nos parece plausível.

Cumpre, contudo, ter sempre em mente a questão da responsabilidade pelos eventuais resultados errôneos do programa, seja por mau funcionamento, seja por seu não funcionamento em caso concreto.

O dano decorrente do uso de equipamento dotado de IA evidentemente não acarreta diretamente a responsabilidade do equipamento ou do sistema inteligente, já que eles, conquanto instrumentos sofisticados, não dispõem de um requisito relevante para que a responsabilização legal (civil ou penal) aconteça: a personalidade, como tal reconhecida para efeitos legais.

A responsabilidade, dependendo das circunstâncias de cada caso, recairá num dos três seguintes núcleos de imputação (ou conjuntamente em todos eles): no programador do software de IA, no operador do Direito (advogado, magistrado etc.) da entidade ou instituição que o tem em seus quadros funcionais, ou na própria entidade e instituição. A responsabilidade do programador fica excluída se provado que o uso do sistema, tal como concebido, não estava disposto de forma tal que sempre ocorreria um dano. Assim, sendo a programação “sadia”, eventuais danos, decorrentes de seu uso, são imputáveis ao usuário e ou à entidade/instituição em que ele está integrado. Para resumir, fixemos caber a responsabilidade, no caso:

  • ao programador, quando o programa tenha sido disponibilizado sem suficiente proteção ou aptidão funcional, quando isso era essencial à sua utilização segura;
  • ao usuário ou à entidade/instituição que o programador integra, quando, cientes elas da vulnerabilidade do sistema, não adotaram soluções tecnológicas que as protegessem.

Todavia se o programa é, além de adequado e conducente a fins lícitos, técnica e tecnologicamente protegido, mas mesmo assim houver defeito em seu funcionamento ou invasão por hackers (neste caso, mediante recursos ainda não conhecidos ou pensáveis pelo estado da arte, quando do evento danoso), configurar-se-á, em princípio, situação de força maior ou de fato de terceiro, excludente da responsabilidade do programador e do usuário. A exclusão de responsabilidade por alegação de simples negligência só deve ser admitida quando o usuário ou o programador não tinha conhecimento da probabilidade do dano tal como não a teria qualquer pessoa razoável.

Tampouco haverá responsabilidade de programadores, fabricantes ou usuários quando o equipamento de IA, desenvolvendo por seus próprios algoritmos capacidades de opção e ação com finalidades ilícitas ou danosas, produz “conscientemente” um resultado perverso. Aqui reside, por certo, uma das mais ominosas questões envolvidas na temática da IA. E duas perguntas, para as quais, sinceramente, não temos ainda respostas seguras: essa hipótese pode realmente acontecer? Em caso afirmativo, a quem atribuir responsabilidade? Problemas desse tipo, ao menos no presente momento, somente podem despertar uma reação: é imperioso discutir a fundo os limites tecnológicos concernentes à IA, bem como fixar um regramento ético para envolvidos no desenvolvimento e na utilização de tais equipamentos.

No Instituto dos Advogados de São Paulo, funciona uma comissão especial encarregada de elaborar um código de ética para sistemas inteligentes, presidida pela ilustre advogada Priscila Ungaretti de Godoy Walter. É também de nosso conhecimento que esforços da mesma natureza se desenvolvem presentemente na IBM e seguramente em outras grandes empresas. A matéria também é objeto de algumas poucas leis de alguns países. No momento em que o STF ingressa nessa fascinante seara, provavelmente muito útil seria um amplo intercâmbio de ideias e experiências.

Autores

  • Brave

    é advogado, parecerista, procurador aposentado do estado do Rio de Janeiro, professor titular aposentado da Universidade Federal do Rio de Janeiro (UFRJ) e da PUC-Rio e doutor em Direito pela UFRJ. É membro efetivo e presidente da Comissão de Direito Administrativo do Instituto dos Advogados de São Paulo (Iasp) e fundador e membro do Conselho Superior da Associação Paulista de Direito Administrativo (APDA).

Tags:

Encontrou um erro? Avise nossa equipe!