Por que pesquisadores usam IA escondido (e o que isso revela)
O paradoxo da transparência na IA acadêmica: por que pesquisadores que usam IA diariamente têm medo de declarar isso na dissertação ou artigo.
O silêncio que você conhece
Olha só: se você já usou ChatGPT, Claude ou qualquer outra IA no seu trabalho acadêmico e ficou com aquela sensação de que era melhor não contar para ninguém, você não está sozinho.
Isso acontece com pesquisadores no mundo todo. Com mestranda que usa IA para organizar as notas das entrevistas e não menciona isso na metodologia. Com doutorando que pede para a IA ajudar a estruturar o argumento e depois reescreve tudo, mas não registra esse processo. Com professor que usa IA para preparar as aulas e acha que não precisa informar os alunos sobre isso.
É um padrão. E tem nome: o paradoxo da transparência.
A premissa é simples: quanto mais útil a IA se torna para a pesquisa, mais os pesquisadores têm medo de admitir que a usam. E aí as coisas ficam complicadas.
O que é o paradoxo da transparência, afinal
O paradoxo funciona assim: a ciência tem como valor fundamental a transparência metodológica. Você deve descrever exatamente como fez o que fez, para que outros possam replicar, criticar ou aperfeiçoar seu trabalho. Esse princípio não é novo, é a base do método científico.
Mas quando a ferramenta usada é IA, esse princípio encontra um obstáculo estranho: o medo de julgamento. Pesquisadores que relatariam sem problema algum que usaram SPSS, ATLAS.ti ou qualquer outro software não relatam que usaram ChatGPT, mesmo que a função tenha sido igualmente metodológica.
Por quê? Há algumas razões que aparecem repetidamente quando converso com pesquisadores sobre isso.
O medo de parecer menos capaz. Há uma ideia difundida de que usar IA significa que você não consegue fazer o trabalho “sozinho”. Como se pedir ajuda à tecnologia fosse diferente de pedir ajuda a um software estatístico, um dicionário ou um colega.
A ambiguidade das regras. A maioria dos programas de pós-graduação brasileiros ainda não publicou políticas claras sobre IA. Sem saber exatamente o que é permitido, muitos pesquisadores optam pelo silêncio como estratégia de defesa. “Se ninguém sabe que usei, ninguém pode me questionar.”
O desconforto com a novidade. A IA entrou tão rápido na rotina de pesquisa que os pesquisadores estão usando antes de as regras existirem. E usar antes das regras dá uma sensação de movimento em zona cinzenta, mesmo quando o uso é completamente legítimo.
Faz sentido? O problema é que essa estratégia de silêncio resolve um desconforto imediato criando um risco maior no longo prazo.
Por que o silêncio não é uma solução
Vamos lá. O silêncio sobre o uso de IA tem algumas consequências que vale nomear.
A primeira é a mais óbvia: se você não descreve como usou IA, sua metodologia está incompleta. Alguém que tente replicar seu estudo não vai conseguir, porque está faltando uma etapa. Isso não é uma falha ética menor, é uma lacuna metodológica real.
A segunda é mais sutil. Quando pesquisadores não declaram o uso de IA, eles contribuem para a invisibilidade dessas práticas. A academia não consegue debater, regular ou orientar aquilo que não aparece. O resultado é que as políticas institucionais ficam desconectadas da realidade e as regras que aparecem tendem a ser mais restritivas do que precisariam ser, porque surgem em resposta a escândalos em vez de surgir de um diálogo aberto.
A terceira é pessoal. Não declarar o que você fez cria uma vulnerabilidade. Você pode ser questionado em uma banca, em uma revisão por pares, por um orientador ou por um comitê de integridade. E aí você precisaria defender uma omissão, não uma escolha metodológica legítima. São defesas muito diferentes.
Há pesquisas indicando que uma parcela considerável de pesquisadores usa ferramentas de IA regularmente mas não divulga esse uso. Isso não é julgamento sobre essas pessoas, é uma leitura do ambiente que criamos coletivamente, um ambiente onde a honestidade tem custo percebido maior do que o silêncio.
O que as diretrizes internacionais dizem
As principais organizações que norteiam a integridade científica foram chegando a consensos parecidos sobre isso.
O COPE (Committee on Publication Ethics) foi um dos primeiros a estabelecer que IA não pode ser listada como autora de um trabalho, mas que o uso deve ser declarado quando relevante para a produção do conteúdo. A lógica é: se IA ajudou a escrever, estruturar ou analisar, isso precisa estar na metodologia.
O ICMJE (International Committee of Medical Journal Editors) adotou posição semelhante. Ferramentas de IA não atendem aos critérios de autoria porque não podem assumir responsabilidade pelo trabalho, mas o uso precisa ser transparente.
A Portaria CNPq 2664/2026 trouxe esse debate para o contexto brasileiro de forma mais direta, exigindo que pesquisas financiadas pelo CNPq incluam declaração sobre o uso de IA quando aplicável. Não é uma proibição, é um chamado à transparência.
O padrão que está se consolidando não é “proibir IA”, é “declarar IA”. Isso não é pedir demais, é pedir o mínimo que a integridade científica sempre exigiu de qualquer ferramenta metodológica.
O que pesquisadores de verdade fazem
Há uma conversa que acontece nos bastidores da academia que vale trazer à tona.
Pesquisadores que desenvolveram uma prática madura com IA geralmente descrevem um processo que tem três elementos: uso deliberado, verificação rigorosa e documentação honesta. Eles usam IA para tarefas específicas, verificam cada output antes de incorporar ao trabalho e registram esse processo como parte da metodologia.
A diferença entre esse grupo e o grupo que usa escondido não é a quantidade de uso de IA, às vezes o uso é similar. A diferença é que uns constroem uma prática defensável e outros constroem uma exposição.
Quando a pesquisadora diz na seção de metodologia “utilizei o ChatGPT para auxiliar na organização temática das entrevistas, com verificação manual de cada categoria e validação pela pesquisadora responsável”, ela não está confessando uma fraqueza. Está demonstrando rigor metodológico. Está dizendo: eu sei o que fiz e posso explicar.
Essa postura é muito mais sólida academicamente do que o silêncio.
Por que declarar é uma vantagem, não uma fraqueza
Aqui tem um ponto que o medo faz as pessoas perderem de vista.
A academia, no fundo, valoriza mais a capacidade de fazer escolhas metodológicas conscientes do que a capacidade de fazer tudo sem ajuda. Uma banca de mestrado não está avaliando se você usou ou não usou determinada ferramenta. Está avaliando se você entende o que fez, se pode justificar suas escolhas e se o trabalho é rigoroso.
Declarar o uso de IA abre a possibilidade de defender essa escolha. “Usei essa ferramenta, nesse contexto, para essa finalidade específica, e aqui está como garantí que a autoria e a análise crítica permaneceram minhas.” Essa é uma posição defensável e, cada vez mais, esperada.
Negar ou omitir fecha essa possibilidade. Se alguém descobrir depois, você não tem como defender. Se a banca perguntar, você está em uma posição ruim. Se surgir qualquer questionamento sobre integridade, você não tem documentação.
O V.O.E. como método de escrita acadêmica já incorpora essa lógica de documentação do processo. Não é sobre o que você usou para pensar, é sobre a clareza de como você chegou às suas conclusões. E isso inclui as ferramentas, todas elas.
O que muda quando você decide ser transparente
Vamos lá. Se você quer sair do paradoxo, a saída é mais simples do que parece.
O primeiro passo é entender a diferença entre uso legítimo e uso problemático. Usar IA para organizar notas, identificar padrões em grandes volumes de texto, reformular passagens confusas na sua própria escrita ou verificar coerência argumentativa são usos metodológicos que podem ser declarados com clareza. Usar IA para escrever seções inteiras e apresentá-las como seu texto sem declaração é um problema diferente.
O segundo passo é criar o hábito de documentar enquanto usa. Não espere até a revisão final para pensar em como declara o uso. Registre no seu diário de campo ou em um arquivo separado quais ferramentas usou, em qual etapa, para qual finalidade. Isso transforma a declaração final em algo simples, porque você já tem os dados.
O terceiro passo é redigir uma declaração clara na metodologia. Não precisa ser longa. Precisa ser honesta e específica. “Utilizei [nome da ferramenta] para [finalidade específica], com [tipo de verificação ou supervisão]. A análise e interpretação dos dados foram realizadas pela pesquisadora.”
Faz sentido? O que a academia precisa não é de pesquisadores perfeitos que nunca precisam de ferramentas. Precisa de pesquisadores honestos que sabem usar ferramentas e podem explicar como.
O que fica
O paradoxo da transparência só persiste enquanto o medo for maior do que a consciência de que a honestidade é a estratégia mais sólida.
A IA está nas dissertações, nos artigos, nos processos de pesquisa. Isso não vai mudar. O que pode mudar é a forma como lidamos com essa realidade: com silêncio desconfortável ou com documentação clara.
Pesquisadores que desenvolvem uma prática transparente com IA não estão apenas se protegendo de questionamentos futuros. Estão contribuindo para que a academia construa regras mais inteligentes, baseadas no que realmente acontece nos laboratórios e nas salas de pesquisa, não no que as comissões imaginam que acontece.
Se você quer entender como declarar esse uso na prática, o post como declarar uso de IA na dissertação traz modelos e orientações específicas. E se quiser entender o que mudou no contexto regulatório brasileiro, a análise da Portaria CNPq 2664/2026 é um bom ponto de partida.