IA & Ética

7 Coisas Que Saber Antes de Usar IA na Pós-Graduação

O que ninguém te conta antes de usar ferramentas de IA no mestrado e doutorado: limites éticos, riscos reais, o que as políticas institucionais dizem e como usar sem se prejudicar.

ia-na-pesquisa etica-ia pos-graduacao mestrado-doutorado ferramentas-ia

O que ninguém te diz antes de você usar IA na pós-graduação

Vamos lá. As ferramentas de inteligência artificial são parte da paisagem da pesquisa acadêmica hoje. Isso não é tendência: é realidade. Pesquisadores usam IA para revisão de texto, busca de referências, análise de dados, síntese de literatura, geração de hipóteses e muito mais.

O problema é que a maioria das pessoas que começa a usar IA na pós-graduação não recebe orientação sobre como fazê-lo com inteligência. Recebe entusiasmo ou paranoia, mas raramente uma perspectiva equilibrada baseada em uso real.

O que segue são as coisas que considero essenciais saber antes de integrar IA ao seu trabalho de pesquisa.

1. A IA não sabe quando está errada

Esse é o risco mais subestimado. Grandes modelos de linguagem como ChatGPT, Claude e Gemini são projetados para produzir texto coerente e plausível. O problema é que “plausível” não é o mesmo que “correto”. A IA pode afirmar com total confiança uma referência que não existe, um dado que nunca foi publicado ou uma metodologia que não se aplica ao seu contexto.

Isso tem nome: alucinação. E acontece com frequência suficiente para ser um risco real, especialmente quando você está em território que ainda não domina completamente.

A única defesa eficaz é verificar tudo que a IA afirma. Se ela cita um artigo, confirme que o artigo existe e que diz o que ela disse que dizia. Se sugere uma metodologia, pesquise fontes primárias sobre ela antes de adotar.

2. A IA não conhece seu campo tão bem quanto você pensa

Os modelos de linguagem têm cobertura ampla, mas não profundidade uniforme. Áreas mais bem representadas na internet em inglês têm melhor cobertura. Áreas menores, pesquisa em português, ou temáticas muito específicas podem ser território onde a IA tem lacunas sérias.

Isso significa que você não pode delegar à IA a responsabilidade de dizer o que é estado da arte na sua área. Ela pode ajudar a organizar o que você já sabe, a formular perguntas, a identificar caminhos de busca. Mas a curadoria do conhecimento específico da sua área precisa ser sua.

3. As políticas das instituições ainda estão se formando

Quando você começa o mestrado ou doutorado em 2026, provavelmente não vai encontrar um regulamento claro sobre uso de IA. Isso não é permissão implícita. É lacuna que está sendo preenchida.

O que existe de forma consolidada é a proibição de plágio, que algumas instituições já expandiram explicitamente para incluir texto gerado por IA submetido como produção própria. Outros programas ainda não chegaram lá formalmente.

A postura mais segura: pergunte ao seu orientador sobre o uso de IA no seu projeto. Diga o que você está pensando em usar e para que. Essa conversa tira você de uma zona cinzenta e coloca o uso de IA dentro de um acordo explícito com quem vai avaliar seu trabalho.

4. Periódicos internacionais já têm políticas explícitas

Se o seu objetivo é publicar em periódicos internacionais, leia a política de IA de cada revista antes de submeter. As políticas variam bastante.

Algumas revistas proíbem listar IA como coautor (o que é a posição mais razoável, dado que IA não tem responsabilidade pelos resultados). Outras exigem declaração de que você usou IA e para que fins específicos. Outras ainda proíbem o uso de IA generativa em qualquer parte do manuscrito.

Submeter sem ler a política e ter o artigo rejeitado ou ter que reescrever seções inteiras é um retrabalho completamente evitável.

5. O risco de dependência é real

Esse é o ponto mais difícil de medir no começo. Você usa IA para escrever rascunhos, a IA entrega texto ok, você revisa e entrega. Parece funcionar. O problema é que, ao longo do tempo, a sua competência de escrita pode não se desenvolver da forma que precisaria.

Mestrandas que aprendem a escrever escrevendo, cometendo erros e corrigindo com feedback, geralmente chegam ao final do mestrado como escritoras muito melhores do que quando começaram. Mestrandas que terceirizam boa parte da escrita para a IA podem chegar ao final com menos desenvolvimento do que poderiam ter.

O desenvolvimento da sua voz como pesquisadora, da sua capacidade de argumentar em texto, de estruturar ideias com precisão, isso acontece quando você escreve, não quando você revisa o que a IA escreveu.

6. A confidencialidade dos seus dados é sua responsabilidade

Você não deve inserir dados de participantes de pesquisa, transcrições de entrevistas, informações confidenciais de instituições ou quaisquer dados protegidos em ferramentas de IA que usam esses inputs para treinamento.

A maioria dos serviços gratuitos de IA usa as conversas dos usuários para aprimorar os modelos. Isso significa que o que você escreve pode, em alguma versão futura, influenciar as respostas que a ferramenta dá para outras pessoas.

Para pesquisas com dados sensíveis, verifique os termos de uso da ferramenta que você quer usar. Alguns serviços empresariais oferecem opções que não usam dados para treinamento, mas isso precisa estar contratado explicitamente.

7. IA não substitui orientação, não substitui leitura, não substitui o seu julgamento

A IA é uma ferramenta de aceleração e de apoio. Ela não substitui a leitura dos artigos da sua área, não substitui as conversas com seu orientador, não substitui o trabalho de pensar com profundidade sobre o seu problema de pesquisa.

A pesquisadora que usa IA com inteligência é aquela que mantém o controle intelectual do seu trabalho. Ela usa a ferramenta para acelerar tarefas específicas, não para pensar por ela.

Isso exige que você tenha clareza sobre o que você está tentando descobrir antes de perguntar qualquer coisa para uma IA. Entrar sem direção e pedir para a IA “me explique minha área de pesquisa” é perder a oportunidade de construir seu próprio entendimento.

Como usar IA na pós-graduação de forma que você não vai se arrepender depois

A síntese prática: use IA para coisas que não exigem seu julgamento especializado (formatação, checagem ortográfica, busca de palavras-chave, sugestão de estrutura de parágrafo). Mantenha para você as decisões que definem a qualidade intelectual do trabalho (escolha da pergunta, argumento, interpretação dos dados, conclusões).

E sempre, sempre verifique o que a IA produz. Não por paranoia, mas porque você é responsável pelo que assina.

O que os orientadores pensam sobre o uso de IA, de verdade

A maioria dos orientadores com quem converso tem uma posição nuançada: não são nem proibicionistas nem entusiastas ingênuos. O que eles pedem, quando pedem alguma coisa, é transparência.

“Me diz o que você usou” é muito mais fácil de lidar do que descobrir depois. E os melhores orientadores entendem que a questão não é se você usou uma ferramenta, mas se você sabe o que está fazendo com o que a ferramenta produziu.

Se o seu orientador é declaradamente contra o uso de IA, essa conversa também precisa acontecer. Não para convencê-lo do contrário, mas para saber com clareza quais são os limites do seu trabalho conjunto e operar dentro deles.

Para além do medo e do entusiasmo

O momento atual é de transição. As normas estão sendo construídas em tempo real, e você vai navegar esse período como parte da primeira geração de pesquisadores que fez mestrado ou doutorado com essas ferramentas amplamente disponíveis.

Isso é uma posição interessante, não apenas desafiadora. Como você usa IA na sua pesquisa vai fazer parte da sua história de formação. Usar com clareza de propósito, com honestidade intelectual e com senso crítico é o que transforma essa ferramenta em algo que te serve, não em algo que te substitui.

Para aprofundar a discussão sobre ética no uso de IA na ciência, explore outros posts sobre IA e ética ou veja o Método V.O.E. para entender como estruturo a produção acadêmica com qualidade e integridade.

Perguntas frequentes

Usar IA na pós-graduação é proibido?
Não há proibição geral. A maioria das instituições ainda está desenvolvendo políticas específicas sobre uso de IA em trabalhos acadêmicos. O que existe é proibição de plágio e de fraude, que pode incluir submeter texto gerado por IA como produção própria em contextos onde isso não é permitido. Antes de usar qualquer ferramenta de IA em trabalhos avaliados, leia as normas da sua instituição e pergunte ao seu orientador.
A IA pode alunar minha pesquisa se eu não usar com cuidado?
Sim. Os principais riscos são: aceitar informações incorretas que a IA apresenta com confiança (alucinações), usar sugestões metodológicas que não são adequadas para sua área sem verificar, e perder a oportunidade de desenvolver competências que você vai precisar dominar por conta própria no futuro. IA usada sem senso crítico pode prejudicar a qualidade da pesquisa sem que você perceba no momento.
Preciso declarar que usei IA na minha dissertação?
As políticas variam por instituição e por periódico. Cada vez mais, periódicos internacionais exigem declaração do uso de IA na seção de métodos ou nos agradecimentos. Para dissertações e teses, o orientador e o programa são as referências corretas. A tendência é de maior transparência sobre o uso de IA, então declarar quando usou é sempre a postura mais segura.
<