IA & Ética

A CAPES vai reprovar dissertação por IA? O que sabemos

O medo de reprovação por usar IA na dissertação é real entre pesquisadores. Veja o que a CAPES de fato diz, o que os programas fazem e o que isso significa para você.

ia-etica capes integridade-academica dissertacao

A pergunta que todo mestrando está fazendo

Olha só. Se você já usou IA no seu mestrado ou doutorado e ficou com aquela dúvida ansiosa sobre se isso vai “dar problema” na defesa ou no processo de avaliação institucional, você não está sozinho.

Esse medo circula nos grupos de WhatsApp de programas de pós-graduação, nas conversas de corredor, nas perguntas que pesquisadores fazem mas não costumam fazer em voz alta: “A CAPES vai reprovar minha dissertação por eu ter usado IA?”

A resposta curta é: não, não da forma como você está pensando. Mas a resposta mais completa merece ser explicada com cuidado, porque há nuances importantes.

Como a CAPES funciona (e o que ela de fato avalia)

Para entender o que a CAPES pode ou não fazer em relação ao uso de IA, é preciso entender o que a CAPES de fato faz.

A CAPES não avalia dissertações individuais. Ela não lê seu trabalho, não emite parecer sobre sua pesquisa e não tem como reprovar ou aprovar a sua dissertação diretamente. Isso é competência da banca examinadora que você terá na defesa.

O que a CAPES faz é avaliar programas de pós-graduação como um todo. De quatro em quatro anos, os programas são avaliados com base em critérios que incluem produção científica, formação de recursos humanos, inserção social e internacionalização. A nota que um programa recebe (de 3 a 7) depende desse conjunto de indicadores.

Nesse processo de avaliação de programas, questões de integridade científica podem aparecer. Se um programa tem histórico de problemas graves de integridade, isso pode impactar sua avaliação. Mas isso é muito diferente de dizer que a CAPES vai reprovar sua dissertação por você ter usado ChatGPT para organizar ideias.

O que a CAPES diz oficialmente sobre IA

A CAPES publicou documentos orientadores que tratam de integridade científica e, mais recentemente, do uso de IA. O tom geral desses documentos é de orientação para a transparência, não de proibição.

O posicionamento que emerge desses documentos, junto com as regulamentações do CNPq (especialmente a Portaria 2664/2026), é coerente com o que os principais organismos internacionais também adotaram: o uso de IA é permitido quando declarado de forma adequada, quando não compromete a autoria intelectual e quando não viola os princípios de integridade da pesquisa.

Isso significa que o problema não é usar IA. O problema é usar sem declarar, usando de forma que substitua a autoria intelectual do pesquisador, ou usando em formas que violam diretrizes específicas do periódico ou do programa.

Onde está o risco real

Se a CAPES não vai reprovar sua dissertação diretamente por uso de IA, onde está o risco real que justifica toda essa ansiedade?

O risco mais imediato está na banca. Os membros da banca têm autonomia para questionar qualquer aspecto metodológico do trabalho, incluindo o uso de ferramentas de IA. Se você não declarou na metodologia que usou IA e um membro da banca pergunta ou detecta, você está numa posição delicada. Não porque usou, mas porque não declarou.

O risco secundário está nas revisões por pares, se você publicar artigos resultantes da dissertação. Periódicos com políticas claras sobre IA esperam declaração. Ausência de declaração quando o uso foi real pode ser interpretada como desonestidade no processo editorial.

O risco de longo prazo está na reputação. A integridade acadêmica é construída ao longo de uma carreira. Uma inconsistência sobre o uso de IA que apareça depois que você já publicou pode ter repercussões desproporcionais ao uso em si.

Faz sentido? Nenhum desses riscos é sobre a CAPES reprovar sua dissertação. São sobre como você se posiciona metodologicamente e como isso é percebido por quem avalia seu trabalho.

O que os programas estão fazendo

Aqui há uma variação grande que vale reconhecer.

Alguns programas de pós-graduação brasileiros já têm políticas explícitas e comunicadas sobre IA. Esses programas definem o que é permitido, como declarar e quais são as consequências de uso não declarado.

Muitos programas ainda não têm uma política formal. Nesses casos, a posição do orientador e as práticas informais do grupo de pesquisa tendem a funcionar como referência, o que gera inconsistência entre orientandos do mesmo programa.

Há também programas onde a conversa sobre IA simplesmente não acontece, e os pesquisadores ficam navegando no silêncio sem saber o que está permitido, o que cria exatamente o ambiente propício para problemas.

Se você não sabe qual é a política do seu programa sobre IA, vale perguntar diretamente à coordenação. Não como confissão de que você usou algo proibido, mas como pedido de orientação metodológica. “Quais são as diretrizes do programa sobre declaração de uso de IA na dissertação?” é uma pergunta legítima e responsável.

O que a ansiedade muitas vezes está protegendo

Quando pesquisadores ficam muito ansiosos sobre “ser pegos” usando IA, vale a pena olhar o que essa ansiedade está escondendo.

Às vezes é genuína incerteza sobre as regras. Nesses casos, buscar informação resolve.

Às vezes é um uso que o próprio pesquisador percebe como problemático, como ter pedido à IA que escrevesse seções inteiras e apresentado o texto como se fosse seu, sem declaração e sem revisão crítica substantiva. Nesses casos, a ansiedade é um sinal que merece atenção.

A diferença importa. Usar IA para organizar notas, reformular passagens confusas, identificar padrões em grandes volumes de texto ou verificar coerência argumentativa, declarando esse uso na metodologia, é fundamentalmente diferente de usar IA para escrever e não declarar.

Se você está no primeiro caso, a solução é simples: declare adequadamente. Se está no segundo, a conversa fica mais complexa, mas o princípio continua sendo a honestidade sobre o que foi feito.

A proteção mais sólida que você tem

A melhor proteção contra qualquer questionamento futuro sobre o uso de IA no seu trabalho é a documentação transparente de como você usou.

Não é prometer que nunca usou. Não é minimizar ou esconder. É ser capaz de dizer: “Usei X ferramenta para Y finalidade, com Z tipo de verificação e supervisão. A autoria intelectual, a análise crítica e as conclusões são inteiramente minhas.”

Isso é defensável. Isso resiste a qualquer banca, a qualquer revisão por pares e a qualquer questionamento de integridade. Porque está alinhado com os princípios que a própria ciência defende: transparência metodológica e responsabilidade sobre o trabalho produzido.

O post sobre como declarar uso de IA na dissertação tem modelos concretos que você pode adaptar. E se quiser entender o cenário regulatório mais amplo, a análise da Portaria CNPq 2664/2026 é um bom complemento.

Uma última coisa sobre o medo

O medo de ser reprovado por usar IA diz algo interessante sobre como os pesquisadores percebem essa ferramenta: como algo clandestino, como se o uso fosse inerentemente desonesto.

Mas pense no paralelo. Você usa o Google Scholar para encontrar artigos, usa o Zotero para gerenciar referências, usa o SPSS para análise estatística, talvez use o ATLAS.ti para codificar entrevistas. Nenhuma dessas ferramentas coloca sua integridade em questão, desde que você declare o que fez e que o trabalho intelectual seja seu.

A IA não é diferente nesse princípio. O que diferencia uso adequado de uso problemático não é a ferramenta. É a transparência sobre como a ferramenta foi usada e a garantia de que a autoria intelectual permanece do pesquisador.

Quando você internaliza essa distinção, o medo diminui. O que fica é a responsabilidade de fazer escolhas metodológicas conscientes e documentá-las. Isso é exatamente o que a ciência sempre pediu de seus pesquisadores.

Perguntas frequentes

A CAPES pode reprovar uma dissertação por uso de IA?
A CAPES não avalia dissertações individualmente. Ela avalia programas de pós-graduação como um todo. A reprovação de uma dissertação é competência da banca examinadora e, em casos de infração grave, dos comitês de integridade da instituição. O que a CAPES pode fazer é considerar questões de integridade nos processos de avaliação dos programas.
Qual é a posição oficial da CAPES sobre uso de IA na pós-graduação?
A CAPES publicou documentos orientadores sobre integridade científica que contemplam IA. O posicionamento geral é de que o uso de IA é permitido quando declarado de forma transparente na metodologia e quando não compromete a autoria intelectual do pesquisador. Proibição total não é o caminho adotado oficialmente.
Se meu programa não tem política sobre IA, como devo proceder?
Siga as diretrizes das entidades internacionais de referência (COPE, ICMJE, normas do periódico onde pretende publicar) e documente com clareza o que você usou e como. Essa documentação te protege em qualquer questionamento futuro, mesmo que a política local ainda não exista.
<