Diário de classe

O paradoxo da ingenuidade e a inteligência artificial (de)generativa

Autor

1 de julho de 2023, 15h09

A ingenuidade é um paradoxo, pode ser dádiva, pode ser morte. Na contemporaneidade, parece que almejamos a ingenuidade por sobrevivência. Crer ingenuamente é fundamental para seguirmos existindo. A crença na tecnologia pelas benesses trazidas pode ser incluída nessa ideia.

O impacto da inteligência artificial carrega em si esse paradoxo também, entre dádiva e morte. Que alegria poder usufruir das benesses da tecnologia! Dádiva. Perigo pelos avanços tecnológicos absolutamente descontrolados. Morte! Apontar para um dos lados com a exclusão do outro é um maniqueísmo ao qual não devemos aderir.

Acreditar que a criatividade é exclusividade humana alimenta a esperança de que o trajeto futuro da humanidade será ainda como aquele desenhado nas pinturas rupestres: forma de expressão humana! O humano precisa se proteger como humano (ainda que alguns não mereçam tal proteção).

Por sua vez, acreditar no desenvolvimento de algoritmos, máquinas, robôs ou emaranhados de letras e funções não humanas é constatar que a tecnologia é cortante. Nada mais. Nem nada demais. Até aí, terreno da dádiva.

O avanço da chamada inteligência artificial generativa centraliza o debate em muitos níveis. E a pergunta é: o que é do terreno humano que queremos e devemos permitir que seja substituído? Caso o resultado seja demasiadamente pernicioso ao ser humano, estaremos diante de uma inteligência artificial (de)generativa!

Aqui, vale uma reflexão à parte. O espaço-tempo que ora ocupamos é o da perplexidade diante do futuro que imaginávamos de modo diferente. Não há carros voadores, não há robôs que nos servem de forma obediente. Fomos abalroados. Fomos atingidos em pleno vôo em direção a fantasias de ficção científica que não se realizaram. Fomos atingidos em pleno vôo com um plano estranho, sem direção concreta. Não há Jetsons nem Marty Mc Fly. O que há é um acesso aos dados, às informações e ao conhecimento que nunca foi tão intenso. Acesso prometido e entregue para nós, mas também nas mãos dos possíveis “colonizadores da informação”. Um vôo que fusiona liberdades com obediência a decisões algoritmicamente tomadas por terceiros que são, obviamente, os (novos) donos do poder.

O curioso é que a disputa pela nossa atenção para o uso dos produtos ou serviços fortaleceu ainda mais a condição de commodity do tempo. Vivemos a plenitude humana da escassez de tempo! Nunca houve tanto acesso a dados, informações, conteúdo e nunca tivemos tão pouco tempo para usufruir de tudo o que nos está disponível.

Daí que os grandes poderes econômicos estão vinculados ao chamado regime de informação, em que (a retenção e uso d)os dados, informações e conteúdo são a força motriz da dominação. Intuitivamente, qualquer pessoa com mínimo acesso às redes e à internet tem esse entendimento hoje de que o poder se concentra em quem domina a informação.

Há, portanto que se refletir sobre um particular aspecto que é a inteligência artificial generativa. E então, vale lembrar que a tecnologia não pergunta se pode passar. Nem freio de trem, alarmante, ela possui. Destrói o que está preso nos trilhos. Nem sempre o maquinista é o responsável. Pode ser um problema nos trilhos, pode ser no terreno, ou pode ser um objeto ou animal preso nos trilhos. O problema do atual estado da tecnologia é que ela parece claramente estar descarrilhada. E não temos visto o cuidado devido.

Há pensadores que já observaram e perceberam a gravidade de muitas circunstâncias baseadas em ferramentas de inteligência artificial (generativa ou não) e vem exteriorizando de forma bastante objetiva e cortante, como é o caso de Bridle, ao afirmar que “a tecnologia é a condutora elementar da desigualdade em vários setores.1” Muito mais incômodo, o autor, quando descreve que “reduzir operários a algoritmos de carne, úteis apenas devido à sua capacidade de se mexer e seguir ordens, facilita na hora de contratar, demitir e abusar deles”2. Seu exemplo é sobre um depósito da Amazon, mas seu livro é farto em apontar outros casos.

Há de se admitir, portanto, que o avanço tecnológico – irrefreável – pode permitir benesses, mas pode trazer dificuldades.

Avançar no terreno da criatividade, única exclusividade absoluta humana, pode ser altamente perigoso e danoso. Aparentemente é o maior dos perigos. Em suma, a Inteligência artificial é perigosa, sobretudo quando (de)generativa!

Fechemos o foco para detalhar críticas:

Milissegundos de história atrás surgiu a polêmica sobre o Chat GPT. Discutiu-se se a ferramenta seria uma benesse por permitir construções de textos, inclusive científicos. Há uma vigarice evidente, como já disse Lenio Streck, por trás da ferramenta. Alguns estudantes entenderam que a malandragem seria válida e que misturar com textos autorais seria uma “vantagem”. Auferir vantagens indevidas “não cai bem”, para começar do mínimo. Contudo, para nossa sorte, houve alguma comoção. Houve um movimento de desagrado e espanto no terreno da ética. Boa notícia!

No mesmo sentido do bom espanto, houve um certo desconforto com a ficcionalização por Inteligência artificial de algumas interpretações artísticas. Beatles interpretando Bohemian Rhapsody, do Queen, por exemplo. Foi curioso, divertido, mas pareceu invasivo para alguns. Também houve espanto e desconforto com o episódio Joan é Péssima da série Black Mirror. Houve, a la vez, alguma comoção, desconforto, comemoração e curiosidade. Por sorte, também houve estranhamento. Es-tra-nha-men-to. Uma lufada de esperança surge com este estranhamento.

E nesse ponto, é importante refletir minimamente sobre elementos do campo jurídico.

Intuitivamente, mesmo quem não sabe uma linha sequer de direitos autorais pode constatar que o uso indevido e/ou não autorizado do trabalho criativo alheio pode gerar efeitos negativos. O desconforto, pois, pode estar aliado à intuição de um sistema eficaz. E não estou me referindo ao entendimento sobre propriedade, estou me referindo a que não-juristas percebem quando há excessos em práticas sociais ofensivas do direito de imagem, do conceito de autoria, de interpretação não autorizada. E percebem o excesso de forma evidente.

Com isso, já temos o suficiente para tratar de três dispositivos legais, não mais do que isso. São conceituais, é verdade, mas estão positivados. São eles os incisos I e II do artigo 24 da Lei 9610/98: Art. 24. São direitos morais do autor: I – o de reivindicar, a qualquer tempo, a autoria da obra; II – o de ter seu nome, pseudônimo ou sinal convencional indicado ou anunciado, como sendo o do autor, na utilização de sua obra. Adicionamos os conceitos previstos no artigo 27 da mesma lei: inalienabilidade e irrenunciabilidade3.

A ponte é demasiadamente simples: sendo a criação um conceito voltado ao humano, e sendo o sistema de direitos autorais um conjunto de regras, institutos e princípios voltados à proteção do humano na qualidade de criador, está protegido o autor que, por sua vez, pode ter seu nome indicado ao lado da obra. Mais do que isso, não pode haver alienação dessa condição e nem pode, o autor, esse tal humano protegido, renunciar. A tentativa do sistema de proteger os criadores, autores e intérpretes é constante, mas não é absoluta. O sistema de proteção e transferência de direitos inclui no universo dos direitos autorais praticamente toda a indústria cultural, o que não é um mal em si mesmo nem nunca deveria ser assim interpretado, pela mediocridade (para dizer o mínimo) do argumento. Mas não dá a voz suficiente ao criador. “Criador mudo.”

Porém, não é novidade que as críticas ao sistema são consistentes e constantes, por razões óbvias: um sistema que pretende proteger uma parte mais frágil não pode ser exclusivamente comandado pelo mais poderoso. Esta é a síntese mais evidente do paradoxo dos “direitos autorais”, um contrassenso semântico-hermenêutico por excelência!

Porém, tente-se afastar as pesadas críticas para seguir numa pavimentação possível. Qual o problema das avançadas tecnologias de inteligência artificial – criativas, criadores, criaturas de IA – e a condição de autor? É que as ferramentas ou resultados são incompatíveis pela condição autoral empresarial exatamente por serem não-humanas. O que houve, portanto, com o espanto do Chat GPT e as falsas interpretações por parte do público foi altamente intuitivo.

Ainda que seja curioso escutar “mama, uh uh uh” na voz de Lennon e Mc Cartney, é importante compreender o efeito equivocado da normalização do engano. Estando no terreno do curioso, pode ser alegado humor – aqui e ali uma paráfrase, um equívoco ou outro fato inocente (vá lá) aplicando-se limitações ou exceções de direitos autorais. Pode surgir excesso indevido e com alguma violação que ao menos seria relativamente menor do ponto de vista ético. Tudo isso é beirada hermenêutica, falta densidade do tratamento mais intenso. Mas ao se compreender como normalizado, não importando se a autoria ou interpretação primeira estão protegidas ou se são respeitadas, o caminho ao equivocado se abre de forma contundente. O caminho ao desrespeito e a normalização da ofensa vão se fortalecendo. Em suma, este é o ponto que se deve atentar: o quanto se vai permitir que a inteligência artificial generativa agrida o que é tipicamente (e exclusivamente) humano para se buscar frear o processo.

Em distopias clássicas na literatura e no cinema como Robôs Universais de Rossum (RUR) e Blade Runner, o que traz perigo são sujeitos autônomos (ou relativamente autônomos) envolvidos em tecnologia diante da presença de discussões éticas. O temor da autonomização está normalmente baseado na figura que compõe um “hardware externo”. Mas aparentemente, esta realização literária não se realizou e parece que os maiores perigos não estão em sujeitos (ciborgues, robôs, réplicas) apartados de nós, mas em sujeitos que somos nós mesmos. Talvez sequer venham a estar autonomizados. Isso pode ser compreendido numa amplitude de percepção da inteligência artificial e da forma em que foi conduzida a historia da tecnologia contemporânea.

Como lembra Byung-Chul Han4, o regime de informação é a forma de dominação na qual informações e seu processamento por algoritmos e inteligência artificial determina decisivamente processos sociais, econômicos e políticos. A oposição, segundo o filósofo contemporâneo se faz ao regime disciplinar em que corpos e energias são explorados.

Se vivemos uma era do regime de informação (paralelamente ao regime disciplinar, pois não são excludentes), a concentração da possibilidade criativa universal nas mãos de detentores de capital e de informação pelo uso de ferramentas de inteligência artificial generativa é um problema real muito além de ciborguismos de qualquer natureza.

Há, no mínimo, quatro razões iniciais para alterar da luz amarela para a vermelha: 1) não se pode admitir a atribuição de titularidade para as empresas desenvolvedoras sobre o resultado criativo (essa ideia é um absurdo já levantada por alguns incautos); 2) é necessário entender em que medida as ferramentas farão uso do conhecimento que as alimenta; 3) é necessário entender de que forma as ferramentas são alimentadas; 4) é fundamental refletir sobre a necessidade de limitação do uso, das permissões e dos resultados criativos. Além disso, a proto-pergunta deve ser sempre do espaço da ética: o que poderemos e devemos fazer e que decisões deveremos tomar para o nosso futuro? E além disso, o que pretendemos para o nosso futuro?

Todos estaremos inseridos no caminho, traga ele alegrias ou dor. Mesmo os que lucrem de forma significativa precisam entender as decisões que estarão tomando. É como o conceito de proteção ambiental: os filhos do desqualificado traficante de madeira que queima a floresta serão destinados a viver num planeta em chamas ateadas pelo pai. Construa a sua metáfora a seu gosto com a tecnologia. Corra ao vale do silício e faça suas apostas.

Voltando ao tema do Chat GPT (que fique claro que ele vem tomado como o exemplo paradigmático) e às interpretações desautorizadas, um avanço foi a constatação de que alguma valoração ética se impôs no falseamento da autoria e da interpretação. E isso deve ser uma exigência dos novos tempos: falsear vozes, falsear resultados finais criativos, falsear criações artísticas e intelectuais deve ser considerado o que são: uma mentira a ser descoberta. Há caminhos para o Direito, na direção desta ética tão evidente. Falsear criações pode ser mais amplo, e incluir o uso que já foi criado por terceiros, o fingir de anonimato, ou negar-se a origem, tudo conduz à reflexão ética.

Ora, se é claro que um aluno pesquisador não pode escrever seu trabalho baseando-se no Chat GPT, esta conduta precisa ser nomeada como é: fraudulenta. Na produção de ciências há regras a serem obedecidas, e devem sê-lo. No mais, para que serve a ciência? Não será o avanço social? Se é assim, o avanço social não pode certamente ser uma farsa por muitas razões e, talvez somente uma delas seja a violação da autoria pelo avanço na individualidade. Há uma violação coletiva porque interessa a todos saber de onde vem o resultado da pesquisa científica para que ela possa, inclusive, ser combatida. No mais, a pesquisa vale por si só, é engrandecedora. O mesmo em relação à criação de textos. O que busca um escritor? Somente o resultado final ou o processo? Parece que é evidente que o processo é parte relevante e significativa.

É cedo para apontar o que poderá ser criminalizado, protegido pela via civil, administrativa e outras, mas não é cedo para deixar surgir a intuição que serve de elemento moral, alimento da ética, vigilante das possibilidades de um convívio humano minimamente razoável. Se há espanto, há saída. Se há desconforto, há remédio. Se há reflexão, há esperança. Mas não se pode baixar a guarda para o avanço sobre a ética e a moralidade. O Direito precisa estar na equação. Mas se for (fosse) somente jurídica a solução, no caso da inteligência artificial (sobretudo de-generativa), talvez já tenha sido (seja) tarde demais.

Entre a dádiva e a morte, tecnologia e inteligência artificial possivelmente não são uma ou outra. Mas não podemos fingir que não chegou o dia.

Debatamos.


1 BRIDLE, James, A nova idade das trevas, Todavia, São Paulo, 2018, p. 131.

2 BRIDLE, James, A nova idade das trevas, Todavia, São Paulo, 2018, p. 135.

3 Lei 9610/98. Art. 27. Os direitos morais do autor são inalienáveis e irrenunciáveis.

4 HAN, Byun-Chul, Infocracia – digitalização e a crise da democracia, Editora Vozes, Petrópolis, 2022, p. 07.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!