Opinião

Preciso de uma política de uso do ChatGPT na minha empresa?

Autor

14 de abril de 2023, 18h25

Em pouquíssimo tempo, o ChatGPT se tornou uma ferramenta bastante conhecida no mundo da tecnologia e amplamente utilizada em organizações. Seu modelo de linguagem avançado é capaz de diversas tarefas úteis ao dia a dia dos negócios, como resumir textos, criar modelos de e-mail e respostas a solicitações diversas, gerar códigos, entre muitas outras, o que contribui para agilizar processos e potencializar o trabalho de todos.

No entanto, à medida em que seu uso se expande, mais atenção tem sido dada aos riscos associados. Nesse contexto, organizações têm se preocupado em conhecer tais riscos e adotar medidas adequadas para minimizá-los.

Assim, uma solução que tem sido cogitada é a elaboração de políticas de uso seguro da ferramenta, que guiem os utilizadores quanto às práticas aceitáveis e inaceitáveis.

Nesse contexto, resolvi perguntar ao ChatGPT se ele entendia que era o caso de empresas elaborarem referida política e, caso afirmativo, se ele poderia me ajudar a desenvolvê-la.

Como resultado, em colaboração, eu e ChatGPT criamos uma política abrangente e detalhada, que leva em consideração uma série de riscos potenciais que as organizações podem enfrentar ao utilizar essa ferramenta. A seguir, você confere alguns dos riscos destacados na política e as correspondentes condutas esperadas dos colaboradores para mitigá-los:

1) Riscos de qualidade: o ChatGPT pode produzir resultados imprecisos, especialmente quando solicitado a realizar tarefas computacionais ou mencionar precedentes jurídicos.

Os funcionários devem:

— revisar cuidadosamente as saídas do ChatGPT para identificar e corrigir quaisquer erros.
— ser treinados sobre como identificar e corrigir erros nas saídas do ChatGPT.
— procurar revisores designados pela empresa para revisar as saídas geradas pelo ChatGPT para tarefas críticas, como pareceres jurídicos, relatórios financeiros e comunicações com clientes.

Riscos contratuais
O uso do ChatGPT pode violar as disposições contratuais com os clientes em relação aos fins para os quais seus dados podem ser utilizados.

 Os funcionários devem:
— se familiarizar com os termos de uso da OpenAI antes de usar o ChatGPT.
— procurar aconselhamento jurídico, se necessário, antes de usar o ChatGPT para processar dados de clientes.

Riscos de privacidade
O compartilhamento de informações pessoais com a OpenAI por meio do ChatGPT pode criar riscos de privacidade e contrariar as políticas de privacidade da empresa.

Os funcionários devem:
— estar cientes dos riscos de privacidade associados ao compartilhamento de informações pessoais por meio do ChatGPT.
— inserir no ChatGPT apenas dados que tenham sido desidentificados ou anonimizados, sempre que possível.
— procurar aconselhamento interno, se necessário, antes de imputar dados pessoais.

Riscos de fornecedores
O uso do ChatGPT por fornecedores pode gerar riscos à empresa, como a quebra de confidencialidade.

Os funcionários devem:
— garantir que os contratos com fornecedores proíbam ou limitem a inserção de dados da empresa (em especial aqueles confidenciais) no ChatGPT.

Riscos de propriedade intelectual
O uso do ChatGPT apresenta riscos de violação de direitos autorais e segredos comerciais.

Os funcionários devem:
— procurar aconselhamento jurídico antes de usar o ChatGPT para processar dados confidenciais ou gerar conteúdo que possa estar sujeito a proteção por direitos autorais ou segredos comerciais.

Riscos de segurança cibernética
O uso do ChatGPT pode trazer riscos de segurança cibernética se dados pessoais ou informações confidenciais forem inseridos no sistema.

Os funcionários devem:
— estar atentos aos dados que inserem no ChatGPT e devem evitar imputar dados pessoais e informações críticas como senhas, informações financeiras etc. na plataforma.

Riscos de vieses
ChatGPT pode apresentar resultados enviesados em suas respostas com base nos dados em que foi treinado.

Os funcionários devem:
— estar cientes do potencial de viés nas respostas do ChatGPT
— fazer esforços para avaliar e mitigar qualquer viés na informação gerada, a qual deve ser justa e imparcial e não discriminatória.

Esse interessante exercício em colaboração com o ChatGPT mostrou que há muito o que considerar em relação ao uso da referida ferramenta (e tecnologias semelhantes) e que, a depender do contexto, pode fazer sentido, sim, criar política para o uso seguro, responsável e ético, a fim de mitigar riscos para a organização. É claro que esse esforço tem de ser bem dimensionado para não burocratizar excessivamente o dia a dia dos colaboradores e, consequentemente, reduzir a capacidade inovadora e agilidade da empresa.

Autores

  • é sócio do Prado Vidigal Advogados com extensão em Privacy by Design pela Ryerson University, MBA em Direito Eletrônico pela Escola Paulista de Direito (EPD), profissional de privacidade certificado pela IAPP (CIPP/E) e coautor de diversas obras sobre privacidade e proteção de dados.

Tags:

Encontrou um erro? Avise nossa equipe!