IA & Ética

Riscos Reais de Usar ChatGPT em Trabalhos Acadêmicos

Os riscos de usar ChatGPT em trabalhos acadêmicos: alucinações, integridade científica e como usar IA de forma responsável na pós-graduação.

ia-etica chatgpt integridade-academica pos-graduacao escrita-academica

O que está em jogo quando você usa ChatGPT num trabalho acadêmico

Uma orientanda me perguntou outro dia se podia usar ChatGPT para escrever a introdução da dissertação. A resposta curta é: depende. O motivo é mais interessante do que o sim/não.

O uso de modelos de linguagem como o ChatGPT em trabalhos acadêmicos é um dos temas mais mal compreendidos na pós-graduação atual. Parte da confusão vem de tratar IA como uma categoria uniforme, quando na prática há usos que apresentam risco baixo e usos que colocam em risco a integridade do trabalho, a sua reputação e, em casos extremos, o seu vínculo com o programa.

Entender quais são os riscos concretos é o que separa um uso responsável de um uso problemático.

O problema das alucinações: IA que mente com confiança

O risco mais técnico e menos discutido fora dos círculos de IA é o das alucinações. Um modelo de linguagem como o ChatGPT não tem acesso a um banco de dados de fatos verificados. Ele gera texto estatisticamente plausível com base nos padrões aprendidos durante o treinamento.

Na prática, isso significa que o ChatGPT pode gerar referências bibliográficas que parecem reais mas não existem. Autor correto, ano plausível, título coerente com a área, periódico de alto impacto. Tudo inventado. Ou parcialmente correto, que é pior porque é mais difícil de detectar.

Esse não é um bug que vai ser corrigido. É uma característica estrutural dos modelos de linguagem atuais. Eles não distinguem entre o que sabem e o que estão gerando por plausibilidade. O texto sai confiante independente de ser verdadeiro ou fabricado.

Para trabalhos acadêmicos, isso tem uma consequência direta: nenhuma referência gerada por IA deve entrar no seu trabalho sem verificação individual em base de dados como PubMed, Scopus, Web of Science ou Google Scholar. Não porque a maioria vai estar errada. Porque você não sabe quais estão erradas até verificar.

Integridade acadêmica: o que as instituições e periódicos dizem

As políticas sobre uso de IA em trabalhos acadêmicos evoluíram rapidamente desde 2022 e continuam mudando. O panorama atual é heterogêneo: algumas instituições proíbem qualquer uso não declarado, outras exigem apenas transparência sobre o que foi usado e como, outras ainda não têm política formalizada.

O mesmo vale para periódicos. Revistas de alto impacto em ciências da saúde, natureza e educação têm políticas diferentes entre si. A maioria exige declaração de uso de IA em alguma seção do manuscrito (tipicamente na seção de métodos ou em declarações dos autores). Algumas proíbem que modelos de IA sejam listados como coautores.

Para trabalhos de pós-graduação, a política relevante é a da sua instituição e, se for submeter para publicação, a do periódico de destino. O erro mais comum é assumir que o que não está explicitamente proibido está permitido. Em integridade acadêmica, a ausência de política não é autorização.

O princípio geral que emerge da maioria das diretrizes é: o pesquisador é responsável por tudo que está no trabalho. Se você usa IA para gerar texto e entrega esse texto sem verificar e sem declarar, você assume a responsabilidade por qualquer erro, fabricação ou violação que esse texto contenha.

O risco da genericidade e da perda de voz

Além dos riscos de integridade, há um risco menos visível mas que impacta a qualidade do trabalho: a genericidade.

Modelos de linguagem tendem a produzir texto que está no centro estatístico do que existe na internet sobre um tema. Isso significa que o texto gerado costuma ser correto em termos gerais, mas raro em termos de originalidade. Perde-se o argumento específico, a perspectiva analítica particular, a voz do pesquisador.

Em dissertações e teses, a banca avalia se você tem uma leitura própria do campo. Um texto que soa como síntese genérica do tema não demonstra isso. Você pode conhecer profundamente a área e ainda assim produzir um texto que parece que não conhece, se deixar o modelo de linguagem fazer o trabalho interpretativo.

Para artigos científicos, o problema se amplifica. Revisores de periódicos reconhecem padrões de texto gerado por IA. Não porque usem detectores, mas porque o texto tem características que humanos com experiência na área identificam: fluência sem substância, afirmações consensuais sem profundidade, ausência das tensões e nuances que especialistas no campo sabem que existem.

O que os detectores de IA conseguem e não conseguem fazer

Ferramentas como Turnitin (na versão mais recente), Copyleaks e outras começaram a incorporar detecção de texto gerado por IA. Mas a precisão dessas ferramentas é questionada por pesquisadores da área.

Falsos positivos são um problema real. Texto escrito de forma clara, com estrutura consistente e vocabulário técnico pode ser classificado como “provavelmente gerado por IA” mesmo sendo completamente humano. Isso já causou problemas para estudantes e pesquisadores que escrevem bem.

O ponto principal não é “será que vão me pegar”. É que a verificação da validade científica do trabalho é responsabilidade sua. Se o detector acusar errado, você pode contestar. Se o trabalho contém referências fabricadas que passaram pelos detectores, o problema é mais sério.

Usos de IA que apresentam risco baixo em contexto acadêmico

Nem todo uso de IA em trabalhos acadêmicos é problemático. Há usos que apresentam risco baixo quando feitos com transparência.

Revisão gramatical e estilística. Usar IA para revisar clareza, coesão e gramática do texto que você escreveu é diferente de usar IA para gerar o texto. O conteúdo intelectual permanece seu.

Tradução assistida. Usar IA para tradução de textos em língua estrangeira que você vai ler e interpretar é prática comum e geralmente aceita.

Síntese de documentos que você já leu. Usar IA para resumir artigos que você já leu e cujo conteúdo você entende pode agilizar a organização do material sem substituir o trabalho interpretativo.

Estruturação de ideias. Usar IA para organizar um esboço de texto a partir de ideias que você formulou é diferente de pedir para a IA formular as ideias.

Em todos esses casos, a transparência continua sendo necessária quando a política da sua instituição exige declaração de uso de IA.

Como o uso responsável de IA se encaixa na pesquisa

O Método V.O.E. (Velocidade, Organização, Execução Inteligente) pressupõe que a pesquisadora faz o trabalho intelectual de visualizar e organizar antes de escrever. Quando você usa IA para substituir essas etapas, você perde o que importa no processo: a construção da sua própria compreensão do campo.

A IA pode acelerar partes do trabalho operacional. Não pode fazer por você o trabalho de pensar a pesquisa. E quando você tenta usar IA no lugar desse trabalho, o que aparece na tela soa exatamente como isso: texto de quem não fez o trabalho de pensar.

Fechamento

Os riscos de usar ChatGPT em trabalhos acadêmicos são concretos e desiguais. Alguns usos são problemáticos por razões de integridade. Outros são problemáticos por razões de qualidade. Alguns usos são razoáveis quando feitos com transparência.

A pergunta que vale fazer antes de qualquer uso de IA num trabalho acadêmico não é “está proibido?”. É “esse uso substitui o meu pensamento ou apoia ele?”. A diferença importa para a qualidade do trabalho e para a sua formação como pesquisadora.

Faz sentido?

Para aprofundar o uso ético de ferramentas de IA na pós-graduação, o Método V.O.E. tem mais contexto sobre como organizar o processo de pesquisa. E nos recursos disponíveis você encontra materiais práticos de apoio à escrita acadêmica.

O estado atual da regulamentação no Brasil

No Brasil, o debate sobre uso de IA em contextos educacionais e científicos ainda está se consolidando. O CNPq, a CAPES e a maioria das universidades federais não têm normativas específicas publicadas sobre o uso de ferramentas de IA generativa em pesquisa e produção acadêmica, a partir do que se sabe até meados de 2026.

Isso não é autorização tácita. É lacuna regulatória que coloca a responsabilidade diretamente no pesquisador e na instituição. Alguns programas de pós-graduação já publicaram orientações próprias, e outros estão em processo de construção de diretrizes.

Se você não sabe qual é a política do seu programa, a resposta mais segura é perguntar diretamente à coordenação antes de usar qualquer ferramenta de IA de forma mais ampla no seu trabalho.

O que muda quando o periódico tem política clara

Quando você está escrevendo um artigo para submissão, a política do periódico é mais relevante do que a política da sua instituição, porque é o periódico que decide se publica.

A maioria dos periódicos de alto impacto em ciências da saúde e natureza adotou políticas de declaração obrigatória. A ICMJE (International Committee of Medical Journal Editors), que orienta periódicos médicos, e o COPE (Committee on Publication Ethics) publicaram diretrizes que muitos editores seguem. O ponto central dessas diretrizes é que IA não pode ser listada como autora e que o uso deve ser declarado na seção de métodos.

Antes de submeter qualquer manuscrito, leia as instruções aos autores do periódico com atenção específica para políticas sobre uso de IA. Essa informação está geralmente na seção de ética ou de integridade editorial.

Tabela: riscos por tipo de uso

Tipo de usoRisco de integridadeRisco de qualidade
Gerar texto para entrega sem declaraçãoAltoAlto
Gerar referências sem verificaçãoAltoAlto
Revisão gramatical do próprio textoBaixo (com declaração)Baixo
Síntese de artigos já lidosBaixo (com declaração)Médio
Tradução assistidaBaixo (com declaração)Baixo
Esboço de estrutura a partir de ideias própriasMédioMédio

Esta tabela resume o raciocínio, mas não substitui a leitura das políticas específicas da sua instituição e periódico.

Perguntas frequentes

ChatGPT pode ser usado em trabalhos acadêmicos sem ser considerado plágio?
Depende da política da instituição e do periódico. Muitas universidades e revistas científicas exigem declaração de uso de IA ou proíbem certas formas de uso. Usar ChatGPT para gerar texto que você entrega como seu sem declaração é, na maioria dos contextos, uma violação de integridade acadêmica. Usar para revisar clareza ou estruturar ideias já desenvolvidas por você está numa zona menos regulamentada, mas ainda requer transparência.
ChatGPT inventa referências bibliográficas?
Sim. LLMs como ChatGPT geram referências bibliográficas plausíveis mas frequentemente inexistentes. Títulos, autores, anos e periódicos podem estar corretos em partes e errados em outras, ou completamente fabricados com aparência real. Nunca use referências geradas por IA sem verificar cada uma individualmente nas bases de dados.
Quais são os principais riscos de usar ChatGPT em pesquisa científica?
Os principais riscos são: fabricação de dados e referências (alucinações), texto genérico que enfraquece a originalidade da pesquisa, violação das políticas de integridade da instituição ou periódico, dependência de uma ferramenta que não tem acesso ao estado atual da literatura, e dificuldade em identificar erros conceituais quando o texto soa confiante.

Leia também

Receba estratégias de escrita acadêmica direto no seu feed

Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.