Limites da IA na Relação Orientador-Orientando
A IA pode ajudar na pesquisa, mas não substitui a orientação humana. Entenda onde termina a ferramenta e começa o vínculo que sustenta a formação acadêmica.
A IA entrou na sala de orientação — e agora?
Vamos lá. A inteligência artificial já está presente na rotina de pesquisa de um número crescente de pós-graduandos, seja para revisar textos, organizar referências, identificar inconsistências no argumento ou simplesmente tentar entender um conceito difícil às três da manhã quando o orientador não está disponível.
Isso acontece. E vai continuar acontecendo.
O problema não é usar IA. O problema é não ter clareza sobre onde ela ajuda de verdade, onde ela cria uma ilusão de suporte e onde ela pode, inadvertidamente, prejudicar justamente o que deveria estar acontecendo na relação de orientação.
O que a relação de orientação realmente é
Antes de falar sobre o que a IA não faz, vale entender o que a orientação faz — de verdade, além da burocracia.
Uma boa relação de orientação não é só um professor que lê sua dissertação e dá comentários. É alguém que conhece o campo profundamente o suficiente para perceber quando sua escolha metodológica vai ser um problema na defesa, mesmo que você ainda não tenha percebido. É alguém que entende o que os avaliadores da área esperam, o que as bancas costumam questionar, quais são as conversas internas do campo que não estão nos artigos publicados.
É também alguém que acompanha sua trajetória ao longo de dois, três, quatro anos — que percebe quando você está empacado, quando o que você chama de “crise metodológica” é na verdade crise de confiança, quando você precisa de um empurrão diferente do que você está pedindo.
Esse tipo de julgamento situado, contextual, humano — a IA não faz. E é improvável que faça tão cedo.
O que a IA consegue fazer (e bem)
Sendo honesta nos dois lados: a IA faz muitas coisas úteis na pesquisa. Ignorar isso seria desonesto.
Feedback de texto em tempo real. Você pode colar um parágrafo numa ferramenta de IA e pedir que ela identifique problemas de clareza, coerência ou estrutura argumentativa. Isso é rápido, disponível a qualquer hora e frequentemente útil — especialmente para rascunhos iniciais que você ainda não quer levar ao orientador.
Simulação de questionamentos. Dar à IA o contexto da sua pesquisa e pedir que ela faça perguntas críticas como um avaliador pode revelar pontos cegos que você não tinha percebido. Esse uso é legítimo e complementar à preparação para a defesa.
Síntese de literatura. Pedir à IA que resuma os pontos principais de um conjunto de artigos que você já leu pode ajudar a identificar padrões e convergências. Atenção: a IA pode fabricar referências — então toda síntese precisa ser verificada nas fontes originais.
Organização de ideias. Quando você está num bloqueio, descrever seu problema à IA e pedir que ela reformule ou estruture pode ajudar a clarear o pensamento.
Esses usos têm algo em comum: são auxiliares ao seu trabalho intelectual, não substitutos.
Onde a IA começa a criar problemas na orientação
O risco mais sutil não é usar IA. É usá-la de um jeito que desvirtua o processo de formação sem que você perceba.
O feedback que você precisaria levar ao orientador. Quando você usa a IA para polir um texto antes de mostrar ao orientador, existe um risco: o que chegará para o orientador não será o seu raciocínio real naquele momento, mas uma versão lapidada por uma ferramenta. O orientador perde a oportunidade de ver onde você genuinamente está com dificuldade. O feedback dele fica menos preciso. E você, paradoxalmente, aprende menos.
A dúvida que precisaria gerar conversa. Uma dúvida metodológica respondida pela IA às 23h pode ter resolvido o problema imediato, mas perdeu a oportunidade de uma conversa com o orientador que talvez abrisse uma perspectiva nova, uma sugestão de leitura, um direcionamento que a IA não tem como dar porque não conhece seu projeto com a profundidade que seu orientador conhece.
A ilusão de progresso. Quando a IA gera texto fluente sobre o seu tema, pode dar a sensação de que a pesquisa está avançando. Mas fluência não é argumento. Um texto bem escrito com raciocínio frágil continua com raciocínio frágil. O orientador percebe isso. A IA, muitas vezes, não.
Transparência como princípio, não como regra formal
Muitos programas de pós-graduação estão no processo de criar políticas formais sobre o uso de IA. Alguns já têm. Mas a questão da transparência vai além das regras — é uma questão de postura na relação de orientação.
Faz sentido? Você está sendo formado para produzir conhecimento científico. Parte disso é desenvolver clareza sobre o que você mesmo pensa e o que veio de fora — seja de um autor, de um colega, de uma ferramenta. Saber distinguir a própria voz intelectual do que foi assimilado é uma competência acadêmica fundamental.
Quando você usa IA e não informa o orientador, você não está necessariamente cometendo um crime (depende do que foi feito e das regras do programa). Mas pode estar comprometendo a qualidade da formação que a orientação deveria te dar.
A conversa mais honesta com o orientador é: “Tenho usado IA para [X]. Quero que você saiba e quero entender o que você acha disso no contexto do nosso trabalho.”
Essa conversa pode ser desconfortável. Mas é a que coloca a relação no lugar certo.
Quando a IA preenche vácuos que a orientação deixou
Preciso dizer uma coisa que vai soar como crítica ao sistema, porque é: em muitos contextos de pós-graduação, a orientação é precária. Orientadores com excesso de orientandos, reuniões raras, feedbacks superficiais, ausência nos momentos críticos. Nesse cenário, é compreensível que o pós-graduando busque na IA um apoio que não está recebendo da orientação formal.
Isso não torna o uso da IA problemático por si só. Mas torna necessário nomear que existe uma lacuna estrutural que a ferramenta está tentando cobrir — e que essa lacuna precisa ser endereçada, não apenas contornada.
Se sua orientação é consistentemente ausente ou inadequada, a conversa precisa acontecer em algum momento: com o próprio orientador, com a coordenação do programa, com outros docentes do grupo. A IA pode ajudar a sobreviver ao dia a dia, mas não resolve o problema de fundo.
O que o Método V.O.E. tem a dizer sobre isso
Uma das bases do que trabalho aqui no blog é que clareza na escrita reflete clareza no pensamento — e que tanto a escrita quanto o pensamento se desenvolvem em processo, não de forma instantânea. Isso se aplica diretamente a este tema.
Usar IA para pulir um texto antes de ele estar maduro é um atalho que pode custar o desenvolvimento real do pensamento. A voz acadêmica — sua voz — se forma no atrito, na reescrita, no feedback que mostra onde o argumento falha. Se a IA suaviza esse atrito antes que ele cumpra sua função, você chega ao final da pós-graduação com um produto mais elegante e uma formação menos sólida.
A ferramenta, usada com consciência, pode ser um acelerador. Usada como atalho para evitar o difícil, pode ser um obstáculo disfarçado de ajuda.
Limites que valem a pena respeitar
Não para criar regras rígidas — os contextos variam — mas para pensar junto:
A IA não substitui a conversa com o orientador sobre o andamento real da pesquisa. Ela pode complementar, mas a conversa precisa acontecer.
A IA não assume responsabilidade pelo conhecimento que você produz. Você assina a dissertação. Você defende. Você precisa saber o que está dizendo e por quê.
A IA não conhece seu campo com a profundidade de quem pesquisa há décadas. O orientador, num bom caso, sim.
E a IA não sustenta você nos momentos em que a pesquisa vai mal emocionalmente — quando você acha que não é bom o suficiente, quando tudo parece não fazer sentido, quando você precisa de alguém que entenda o que significa estar naquele lugar específico. Isso é humano. E o espaço para isso, quando existe, é na relação de orientação — não numa interface de chat.