IA & Ética

IA para Fazer Trabalhos Acadêmicos: O Que Pode e o Que Não Pode

O que a inteligência artificial pode e não pode fazer em trabalhos acadêmicos? Entenda os limites éticos e legais antes de usar IA no seu TCC ou dissertação.

ia-academica etica-academica tcc ia-na-pesquisa plagio-academico

A pergunta que todo estudante está fazendo (mas poucos fazem em voz alta)

Olha só: desde que o ChatGPT ficou popular, existe uma pergunta que circula em grupos de WhatsApp de estudantes, em mensagens diretas, em conversas de corredor — mas raramente em voz alta na sala de aula ou na orientação. A pergunta é mais ou menos assim: “Dá pra fazer o trabalho com IA? A universidade vai saber?”

A resposta honesta é mais complicada do que “sim” ou “não”. E vale a pena conversar sobre isso diretamente, sem rodeios.

O que a maioria das políticas institucionais diz

As universidades brasileiras estão, em 2026, em estágios bem diferentes de maturidade quanto às políticas de uso de IA. Algumas já têm políticas formais aprovadas pelo conselho universitário. Outras ainda dependem do critério do professor ou da coordenação.

O que a maioria das políticas que existem — no Brasil e internacionalmente — tem em comum é uma distinção importante: a IA como ferramenta de apoio ao processo é diferente da IA como substituta do pensamento do pesquisador.

Usar IA para verificar gramática, melhorar a clareza de uma frase ou organizar uma lista de referências é diferente de gerar parágrafos inteiros sem revisão crítica, sem verificação de fontes e sem adaptação para o contexto específico da pesquisa.

A maioria das instituições que já regulamentou o assunto segue essa lógica. O ponto-chave é: você mantém autoria intelectual do trabalho?

Usos que são geralmente aceitos

Sem generalizar — porque cada instituição tem suas regras —, existem usos de IA que a maioria das políticas aceita ou tolera:

Revisão gramatical e ortográfica. Usar o Grammarly, o LanguageTool ou até o ChatGPT para identificar erros de concordância, ortografia e pontuação é equivalente a usar um corretor ortográfico avançado. Isso não muda a autoria do texto.

Melhorar a clareza. Pedir para a IA reformular uma frase que ficou confusa é parecido com pedir para um colega dar uma olhada no parágrafo. O conteúdo é seu; a forma melhorou.

Organizar ideias. Usar IA para estruturar um outline, criar uma lista de tópicos a partir das suas anotações ou verificar a coerência entre objetivos e metodologia é uso instrumental.

Tradução e adaptação de textos. Usar IA para traduzir um trecho de um artigo em inglês que você vai parafrasear é prática comum e geralmente aceita — desde que a paráfrase seja sua.

Pesquisa bibliográfica assistida. Ferramentas como ResearchRabbit, Semantic Scholar ou Elicit usam IA para mapear literatura e sugerir artigos relacionados. São ferramentas de descoberta, não de produção de texto.

Usos que são problemáticos — ou diretamente proibidos

Agora vamos para o lado que ninguém gosta de ouvir:

Gerar parágrafos inteiros sem revisão. Copiar o output da IA direto para o trabalho, sem verificar se o conteúdo é correto, sem adaptar para o contexto, sem citar fontes reais — isso é problemático independentemente de qual seja a política da sua instituição. O risco vai além da detecção: você pode estar entregando informações erradas.

Usar referências geradas pela IA sem verificação. A IA alucina referências. Cria autores reais com títulos falsos, títulos reais com anos errados, periódicos que não existem. Cada referência precisa ser verificada manualmente antes de ir para o trabalho.

Apresentar o texto gerado como totalmente seu. Mesmo onde não há política formal, apresentar à banca um trabalho produzido majoritariamente por IA sem nenhuma transparência é uma questão de integridade acadêmica — não apenas de risco de punição.

Fazer trabalhos para terceiros com IA. Usar IA para escrever o trabalho de outra pessoa e cobrar por isso é uma forma de ghostwriting acadêmico. Dependendo do contexto, pode caracterizar fraude.

Por que os detectores de IA são menos confiáveis do que parecem

Aqui vale uma honestidade que vai contra o que muita gente pensa: os detectores de texto por IA não são precisos o suficiente para serem usados como prova definitiva.

Ferramentas como GPTZero e Turnitin AI Detection identificam padrões estatísticos no texto que são mais comuns em texto gerado por IA. Mas esses padrões também aparecem em textos humanos muito formais, muito editados ou escritos em língua não-nativa.

O oposto também acontece: texto gerado por IA que foi muito editado pode passar pelos detectores sem ser flagrado.

Isso não significa que o risco de detecção é zero. Significa que a questão não deve ser “vou me pegar?” — deve ser “estou agindo com integridade?”

Bancas de orientação e defesa têm um recurso que nenhum detector tem: o conhecimento do pesquisador. Quando o professor faz uma pergunta sobre a dissertação e o aluno não consegue responder sobre o que está escrito no próprio trabalho, isso é um sinal muito mais forte do que qualquer ferramenta de detecção.

O que acontece quando a banca percebe

Professores que orientam e participam de bancas há anos desenvolvem uma percepção para texto que não veio do pesquisador. Não é magia — é padrão.

Texto gerado por IA tende a ser fluido demais sem profundidade, genérico nos exemplos, impreciso nos detalhes específicos do contexto da pesquisa. Quando a banca pergunta “como você chegou a essa conclusão?” ou “que autores influenciaram essa sua posição?” e o aluno não consegue responder, o problema fica claro.

E tem o momento da defesa, que é pessoal, verbal e impossível de terceirizar. Você precisa saber o que está escrito no seu trabalho porque vai defender esse trabalho em público.

O problema real de delegar o pensamento à IA

Existe uma razão pela qual o uso irrestrito de IA em trabalhos acadêmicos é problemático além da questão ética e das políticas institucionais: ele prejudica o próprio desenvolvimento do pesquisador.

A dissertação de mestrado, o TCC, a tese de doutorado — esses trabalhos existem para desenvolver a capacidade de conduzir pesquisa independente. Quando você escreve, você pensa. Quando você pensa, você aprende a identificar lacunas, a construir argumentos, a reconhecer contradições.

Delegar esse processo à IA e só revisar o output não desenvolve as mesmas habilidades. A pesquisadora que entra no mestrado precisando dessa capacidade e sai sem tê-la desenvolvido está em desvantagem real no mercado acadêmico e científico.

Isso não é moralismo — é consequência prática.

Como usar IA de forma responsável e transparente

Existe uma forma de usar IA que é ao mesmo tempo legítima, eficiente e honesta: com transparência.

Algumas instituições já pedem que os alunos declarem onde e como usaram IA no processo de produção do trabalho. Essa declaração não é punição — é registro de metodologia, da mesma forma que você declara que usou o software NVivo para análise qualitativa ou que usou o Zotero para gerenciar referências.

Quando você usa IA como ferramenta e documenta isso, você transforma uma questão cinza em uma questão clara. E mantém sua autoria intelectual intacta.

O Método V.O.E. orienta esse tipo de uso: a IA pode apoiar as fases de Organizar e Executar — nunca substituir a fase de Verbalizar, que é onde o pensamento do pesquisador se constrói.

Se você quer entender melhor como equilibrar o uso de IA com integridade acadêmica, a nossa página sobre tem mais contexto sobre a posição que defendemos nesse tema.

Onde a conversa precisa chegar

A discussão sobre IA na academia não vai desaparecer. As ferramentas vão continuar evoluindo, as políticas institucionais vão continuar se adaptando e a linha entre “apoio legítimo” e “substituição do pensamento” vai continuar sendo debatida.

O que não muda é o objetivo central da formação acadêmica: desenvolver a capacidade de pensar de forma rigorosa, conduzir pesquisa com integridade e produzir conhecimento que avança a área. Isso não acontece quando a IA pensa no lugar do pesquisador — acontece quando o pesquisador usa todas as ferramentas disponíveis para pensar melhor.

Essa distinção é simples de entender. Aplicá-la no dia a dia, com prazos curtos e pressão alta, é que exige clareza de valores.

Perguntas frequentes

Posso usar IA para escrever meu TCC ou dissertação?
Depende do que você chama de 'escrever'. Usar IA para organizar ideias, melhorar clareza, revisar gramática e formatar referências é diferente de usar IA para gerar o conteúdo inteiro sem revisão crítica. A maioria das instituições proíbe o uso de IA para substituir o raciocínio do autor, mas permite como ferramenta de apoio. Consulte as normas da sua instituição.
Universidades detectam se o TCC foi feito por IA?
Cada vez mais. Existem ferramentas de detecção de texto gerado por IA (Turnitin, GPTZero, Originality.ai, entre outros) que já são usadas por algumas instituições. Além disso, bancas experientes identificam padrões de escrita artificial — ausência de voz própria, exemplos genéricos, referências desconexas. A detecção não é perfeita, mas o risco é real.
Qual é a diferença entre usar IA como ferramenta e plágio por IA?
Plágio por IA ocorre quando o texto gerado pela ferramenta é apresentado como produção intelectual própria sem transparência e sem revisão crítica. Usar IA como ferramenta significa que a ferramenta apoia um processo que ainda é conduzido pelo pesquisador — você pensa o problema, avalia as sugestões, mantém a autoria intelectual do trabalho.
<