Uso acadêmico do ChatGPT pode ser plágio? Advogada explica 

Advogada especialista na área de educação enfatiza que riscos sempre poderão existir, por ser um recurso ainda muito recente

Uso acadêmico do ChatGPT pode ser plágio? Advogada explica 

O mau uso do ChatGPT pode levar a implicações legais e éticas. Foto: Freepik

O uso do ChatGPT na produção de trabalhos acadêmicos levanta questões relevantes sobre a ética na utilização da inteligência artificial (IA) para estruturar os textos acadêmicos. A prática pode ser enquadrada como plágio, caso haja reprodução de ideias ou trechos de obras já existentes, como aborda a advogada especializada na área de educação, Alynne Ferreira. 

Pode ser enquadrado como plágio se pelo próprio chat houver uma referência a algum trabalho acadêmico, ainda que com as palavras trocadas, mas que seja de uma ideia referente a outra pessoa. Ou seja, uma pessoa pode ter produzido um material colocado na internet e o ChatGPT fez ali um arranjo com as palavras e divulgou de uma determinada maneira”, explica Alynne Ferreira

A advogada enfatiza que os riscos sempre poderão existir, por se tratar de um recurso ainda muito recente, mas o sistema de verificar e checar as questões relativas à autoria, é importante que “o ser humano faça essa avaliação porque a máquina ainda não consegue fazer essa distinção”. 

Existe uma diferença legal entre utilizar o ChatGPT como apoio e entregar um trabalho totalmente produzido pela IA? 

A advogada Alynne Ferreira responde que não existe propriamente uma diferença legal, pois é um recurso que está sendo muito utilizado para fins distintos, como forma de auxílio ou uso completo da IA, porém ainda são muito recentes para ter uma natureza jurídica. 

A legislação demora para acompanhar essas movimentações, essas mudanças que a gente vê no dia a dia. Se faz necessário passar pelo congresso, precisa ter o amadurecimento do tema pela sociedade. Porém, a legislação que a gente tem hoje, dá conta da questão, porque a gente [sociedade] tem uma proteção bastante robusta com relação aos direitos autorais”, argumenta Alynne. 

De acordo com a legislação brasileira, através da Lei Direitos Autorais (LDA) nº 9.610 de 1998, é garantido a regulação e proteção dos direitos de autores de obras intelectuais no país, como livros, músicas, filmes e até mesmo as obras literárias, artísticas e científicas. Além disso, a LDA ainda determina como e quando esses direitos podem ser transmitidos ou comercializados.

Ferreira esclarece que o mais interessante a se fazer em relação ao uso do ChatGPT é as instituições de ensino apresentem algumas orientações sobre como fazer uso dessa ferramenta. “É uma ferramenta que pode auxiliar, por exemplo, em trabalho de pesquisa, mas é preciso avaliar do ponto de vista pedagógico, porque muitas vezes os textos elaborados pela inteligência artificial, não tem uma fonte, é um texto gerado pelo mecanismo de inteligência artificial, então tem que usar com bastante cuidado”, diz.

Essas questões que podem esbarrar num conflito ético precisam ser muito bem delimitadas pelas instituições de ensino. Então, a gente não pode esperar que não haja uma lei federal sobre o tema, mas que cada universidade apresenta orientações muito específicas sobre a forma de produzir conhecimento”, completa a advogada.

Fugir dos riscos do mau uso da inteligência artificial

À reportagem, a advogada pontua algumas maneiras de fugir dos riscos pelo mau uso do ChatGPT. Confira a listagem abaixo: 

1) Fazer uma análise mais sofisticada dos textos e os temas que são retratados: “essas ferramentas são experimentais, muitas vezes elas não refletem a realidade, elas preenchem as lacunas com textos inventados, então há uma série de riscos”.

2) Observar e entender as diretrizes jurídicas: “a legislação que a gente já tem sobre direito autoral, sobre questão também de direito de imagens, e todas as questões relativas ao direito autoral, já tem aí algumas balizas bem firmes da jurisprudência”.

3) Entender os dilemas éticos na prática: “uma máquina vai projetar um certo alcance e uma facilidade, mas pode esbarrar em algum conflito ético, ou seja, essas ferramentas são experimentais, muitas vezes elas não refletem a realidade, elas preenchem as lacunas com textos inventados, então há uma série de riscos”. 

É muito interessante que as instituições de ensino deixem muito claro quais são os paradigmas éticos, inclusive para que os alunos possam ser responsabilizados caso abusem dessa ferramenta. As pessoas precisam aprender a pesquisar e fazer uma boa referência das fontes e, a partir daí, produzir e disseminar conhecimento”, finaliza Alynne Ferreira.