IA vai substituir o orientador? O debate honesto
A pergunta circula nas rodas acadêmicas mas ninguém responde direito. IA pode fazer o que um orientador faz? O que muda e o que não muda com a IA na pós-graduação.
A pergunta que as pessoas fazem nas entrelinhas
Vamos lá. Toda vez que alguém apresenta um chatbot de IA com capacidade de revisar textos acadêmicos, a mesma pergunta aparece, geralmente nas entrelinhas: “mas e o orientador, então?”
Às vezes a pergunta vem direta, às vezes em forma de piada, às vezes em tom de preocupação. Mas ela está lá. E eu acho que merece uma resposta honesta em vez de duas opções extremas que circulam bastante: “a IA nunca vai substituir nada” (otimismo vazio) ou “todo mundo vai perder emprego” (pessimismo preguiçoso).
A pergunta real é: o que um orientador faz que a IA não faz, e o que a IA já faz que antes só um orientador fazia? Isso muda o que acontece nas relações de orientação no Brasil?
O que é orientação na prática
Antes de falar em IA, vale nomear o que é orientação de verdade, porque o termo engloba coisas muito diferentes.
Tem a orientação técnica: ajuda com metodologia, com revisão bibliográfica, com clareza argumentativa, com estrutura do texto. Isso pode ser ensinado, copiado, sistematizado.
Tem a orientação contextual: o orientador conhece o campo, conhece quem são os revisores dos periódicos relevantes, sabe quais perguntas a banca provavelmente vai fazer, sabe o que está em disputa na área naquele momento. Isso não está em banco de dados. Está na cabeça de quem viveu dentro de um campo por anos.
Tem a orientação relacional: o orientador conhece aquela pesquisadora específica. Sabe quando ela está procrastinando por medo e quando está com dificuldade técnica real. Sabe quando a pressão ajuda e quando prejudica. Sabe o que aconteceu no semestre anterior que mudou o estado emocional dela.
Tem a orientação longitudinal: acompanhar a mesma pesquisa por dois, três, quatro anos. Ver como o tema evoluiu, onde a pesquisadora mudou de posição, onde o argumento se consolidou ou desmoronou.
Essas quatro coisas não são equivalentes. E a IA já é boa em algumas, não chegou nas outras.
O que a IA já faz bem na função de orientação
A IA faz a orientação técnica com qualidade crescente. Revisão textual, clareza de argumento, coerência interna de um trecho, checagem de formatação de referências, sugestões bibliográficas com base em keywords, identificação de lacunas em uma argumentação específica. Tudo isso a IA já faz, às vezes melhor do que alguns orientadores fazem, especialmente em situações em que o orientador não tem tempo ou não tem fôlego para dar feedback detalhado.
Isso não é pequena coisa. Muitos estudantes passam semanas esperando retorno do orientador em partes do texto. Com a IA, esse retorno chega em minutos. Para quem está no meio de um impasse de escrita, isso muda a experiência do processo.
A IA também está ficando melhor em simular leitura crítica. Você pede para ela ler como um revisor de periódico ou como um membro da banca, e ela levanta questões que você não tinha considerado. Isso é útil. É um tipo de feedback de qualidade que antes exigia um leitor especializado com tempo disponível.
O que a IA não faz e provavelmente não fará em breve
A orientação contextual é um buraco que a IA não tampona. Não porque a IA seja incapaz de processar contexto, mas porque o contexto de um campo acadêmico específico, num momento histórico específico, com as disputas teóricas que estão acontecendo agora, não está capturado nos dados de treinamento de nenhum modelo. Um orientador que está ativo num campo sabe onde as conversas estão acontecendo. Sabe o que saiu no último congresso. Sabe que determinada linha teórica está sendo contestada por um grupo novo.
Isso não é informação que você acessa num livro ou artigo. É o que você aprende circulando dentro do campo. A IA não circula. Ela processa o que já foi publicado.
A orientação longitudinal é outro ponto cego. Cada conversa com um chatbot começa do zero, a menos que você alimente o contexto manualmente. Um orientador carrega na memória dois anos de conversas, dois anos de evolução da pesquisa, dois anos de entender como aquela pessoa pensa e onde ela tende a travar. Isso não é substituível por uma ferramenta que esquece o que foi dito na semana passada.
A orientação relacional talvez seja a mais difícil de discutir porque é a mais intangível. Uma pesquisadora que está às 23h com a dissertação aberta e um bloqueio de escrita real não precisa só de feedback técnico. Precisa de algo que reconheça que aquilo é difícil. A IA consegue simular isso. Mas simular não é ser.
O risco real da pergunta mal feita
Aqui tem uma coisa que me preocupa. A pergunta “IA vai substituir o orientador?” às vezes é feita por quem quer legitimidade para usar a IA como substituto de uma relação de orientação que está falhando.
Não estou falando de estudante mal-intencionado. Estou falando de estudante que tem um orientador inacessível, que não dá retorno, que está sobrecarregado, que sumiu no segundo semestre. Esse estudante olha para a IA e pensa: pelo menos ela responde.
Esse é um problema real. E a solução não é proibir a IA. A solução é ter orientação de qualidade. Se a orientação funciona, a IA é um complemento. Se a orientação falha, a IA vira muleta. E muleta não é o mesmo que andar.
O que muda quando alguém usa IA em vez de orientação não é só a relação humana. Muda quem assume a responsabilidade intelectual pela pesquisa. O orientador, na orientação de qualidade, é coautor do raciocínio. Ele não escreve por você, mas o seu pensamento foi formado em diálogo com o dele. A IA não forma pensamento em diálogo. Ela devolve padrões estatísticos do que já foi dito antes.
O que deveria mudar na formação de orientadores
Quero provocar um ponto que raramente entra nessa conversa.
Nenhum professor é treinado para ser orientador no Brasil. Você termina o doutorado, entra num programa, e começa a orientar. Aprende por osmose, imitando o que seu próprio orientador fez, bem ou mal.
A chegada da IA deveria ser uma oportunidade de repensar o que é orientação, o que diferencia um orientador que faz diferença de um que apenas existe no papel, e como a formação de quem orienta poderia ser diferente.
Usar IA como comparação forçada pode ser útil aqui: se a IA já faz a parte técnica com qualidade, o que o orientador humano precisa fazer com mais qualidade? O que deveria sobrar para o humano quando a IA absorve parte do trabalho? Isso é uma pergunta boa. Mais produtiva do que “a IA vai substituir tudo”.
Posição, não medo
Olha, tenho posição clara aqui. A IA vai mudar a orientação acadêmica. Já está mudando. Estudantes que usam IA bem estão chegando em reuniões de orientação com textos mais revisados, com dúvidas mais precisas, com argumentos mais desenvolvidos. Isso é bom. Libera o tempo de orientação para o que só o orientador humano pode fazer: o contexto, o longitudinal, o relacional.
O que não aceito é a narrativa de que a IA resolve o que a orientação de qualidade não entregou. Quando uma pesquisadora usa IA porque o orientador não responde e-mail, o problema não é tecnológico. É institucional. E nenhuma ferramenta resolve isso.
A pergunta sobre IA e orientação acadêmica não vai desaparecer. Pelo contrário, vai ficar mais urgente à medida que os modelos evoluem. E a academia precisa de gente disposta a respondê-la com seriedade e honestidade em vez de defensividade ou hype.
Quer saber mais sobre como a IA pode ser usada eticamente na pesquisa? Veja os posts do pilar IA & Ética e também o que é o Método V.O.E..