Posicionamento

IA e a Formação do Pesquisador: Atalho ou Armadilha?

Usar IA para pesquisar é cada vez mais comum entre pós-graduandos. Mas o que isso faz com a formação do pesquisador? Uma opinião clara sobre um debate necessário.

ia-na-pesquisa formacao-academica pos-graduacao posicionamento etica-academica

Uma conversa que está sendo evitada

Olha só: a maioria dos programas de pós-graduação no Brasil está tendo uma conversa incompleta sobre inteligência artificial.

Por um lado, há o silêncio institucional: regras que não existem, orientadores que não sabem o que dizer, avaliações que não foram adaptadas. Por outro, há a conversa informal de corredor, onde pós-graduandos trocam dicas de quais ferramentas usar e como usar de forma que “não apareça”.

O resultado é que a questão mais importante não está sendo discutida: o que o uso de IA faz com o processo de formação de um pesquisador?

Tenho uma opinião sobre isso. E não é uma resposta simples de “bom” ou “ruim”.

O que a formação do pesquisador exige

Para entender o que está em jogo, vale voltar ao básico: o que significa formar-se como pesquisador?

Não é apenas aprender conteúdo de uma área. Isso seria mais rápido e poderia ser feito de outras formas. A pós-graduação forma uma capacidade: a de identificar problemas relevantes, construir perguntas investigáveis, escolher metodologias adequadas, analisar evidências, construir argumentos sustentados, comunicar descobertas com precisão.

Essa capacidade não se desenvolve observando alguém fazer. Desenvolve-se fazendo: com dificuldade, com erro, com o desconforto de não saber, com a resistência de tentar formular uma ideia que não sai como deveria e ter que tentar de novo.

A dificuldade não é obstáculo ao aprendizado. É o mecanismo do aprendizado.

O risco real não é a ferramenta, é o que ela substitui

Aqui fica a minha posição clara: o problema não é usar IA. O problema é usar IA para substituir o processo que forma a capacidade de pensar como pesquisadora.

Quando você pede que uma IA construa seu argumento teórico e você entrega esse argumento como seu, não aprendeu a construir argumentos. Aprendeu a copiar outputs de IA. São habilidades completamente diferentes.

Quando você pede que uma IA analise seus dados e interprete os resultados, não desenvolveu capacidade analítica. Desenvolveu capacidade de conseguir um resultado que parece análise sem ter feito o processo de análise.

O problema não é a ferramenta em si: é a substituição de processos cognitivos que precisam ser exercitados para se desenvolver. E aqui está o ponto que me preocupa genuinamente: pós-graduandos que usam IA extensivamente para tarefas centrais da pesquisa podem chegar à defesa com um produto razoável, mas sem ter desenvolvido a capacidade que o produto deveria representar.

Isso tem consequências. A banca às vezes percebe: e às vezes não. Mas o mercado acadêmico percebe mais tarde. E o próprio pesquisador percebe, quando precisa fazer sozinho o que sempre foi feito com ajuda.

Mas existe um uso que não é substituto

Dito isso: e dito com clareza: há usos de IA que não substituem o processo de formação. Que podem, de fato, ampliá-lo.

Usar IA para organizar e gerir referências bibliográficas não substitui nenhum processo cognitivo central da pesquisa.

Usar IA para checar a coerência lógica de um argumento que você construiu: pedindo que ela identifique lacunas ou inconsistências: pode fortalecer seu pensamento crítico, se você genuinamente analisa o retorno e decide o que faz sentido.

Usar IA para explorar contra-argumentos a uma posição que você já formulou pode ser o equivalente digital de debater com um colega de programa.

Usar IA para reformular uma frase em que você está preso: quando a ideia é sua mas a expressão não sai: é diferente de pedir que a IA escreva sobre o tema por você.

A distinção não é sempre clara. Mas o critério é: o processo cognitivo central da tarefa: formular a pergunta, construir o argumento, interpretar os dados, tomar a decisão metodológica: foi feito por você ou pela IA?

O que eu diria para quem está começando

Se você está na pós-graduação agora, especialmente nos primeiros anos, meu posicionamento é este:

Use IA como ferramenta auxiliar para tarefas operacionais. Seja cuidadosa com o uso em tarefas centrais da pesquisa. E seja honesta consigo mesma sobre a diferença entre as duas categorias.

A razão não é moralismo acadêmico. É pragmatismo. Você está investindo dois, três, quatro anos de vida nessa formação. O ponto de fazer isso é desenvolver uma capacidade real. Se você sair com um título mas sem a capacidade que o título deveria representar, o investimento não foi o que parecia ser.

E o campo acadêmico, especialmente se você pretende seguir carreira, vai exigir essa capacidade. Bancas examinadoras, processos seletivos para pós-doutorado, avaliação de artigos por pareceristas: todos vão fazer perguntas que a IA não vai responder por você no momento decisivo.

Para os programas e orientadores

Uma palavra para quem estrutura os programas.

Proibir o uso de IA sem fornecer orientação não é solução. É evitar a discussão. E a discussão é necessária.

O que os programas precisam é de políticas explícitas, de espaços para discutir abertamente como usar essas ferramentas de forma responsável, e de avaliações desenhadas para verificar que o pensamento é genuinamente do estudante.

Isso não é simples. Mas é o que o momento exige.

Porque a pergunta não é se os pós-graduandos vão usar IA. Eles já usam. A pergunta é se os programas vão deixar que esse uso aconteça no escuro, ou se vão fazer parte da conversa de forma que efetivamente sirva à formação.

E essa escolha, para quem coordena programas ou orienta pesquisadores, também é um posicionamento.

Sobre o que muda com o tempo

Uma coisa que acontece à medida que a tecnologia amadurece: o que é habilidade fundamental em um momento pode deixar de ser em outro.

Calculadoras mudaram a relação da matemática com a aritmética manual. Processadores de texto mudaram a relação com a caligrafia e com a memória de formatos. Bases de dados online mudaram a relação com a memória bibliográfica. Em cada caso, houve período de transição com debates sobre o que deveria ou não deveria ser automatizado: e em todos os casos, as habilidades fundamentais sobreviveram, mas o que contava como habilidade fundamental se reformulou.

IA vai fazer o mesmo com a escrita e com partes do raciocínio. Não de forma imediata, e não de forma que elimine a necessidade de pensar: mas vai reformular o que conta como habilidade central do pesquisador. O pesquisador do futuro vai precisar saber formular perguntas precisas, avaliar evidências criticamente, construir argumentos que se sustentam, e comunicar conhecimento com clareza. O que vai mudar é quanto do trabalho operacional entre esses pontos vai ser mediado por ferramentas.

Isso torna a questão da formação mais urgente, não menos. Pesquisadoras que entram na pós-graduação agora precisam desenvolver as capacidades fundamentais com solidez: porque elas são as que vão durar, independente de como as ferramentas evoluírem.

A minha posição, com clareza

Uso IA no meu trabalho. Uso para organizar referências, para checar coerência lógica de argumentos que construo, para explorar perspectivas que não havia considerado. E sou consistente em não usar para substituir o processo de pensar, argumentar e escrever: porque esses processos são o meu trabalho, não apenas o meio para produzi-lo.

Não estou propondo um padrão impossível de purismo metodológico. Estou propondo um critério simples: você deve ser capaz de defender, sem ajuda de IA, tudo o que está no seu trabalho. Se não consegue, o problema não é a ferramenta: é o processo.

Esse critério é claro o suficiente para ser útil, e flexível o suficiente para acomodar usos legítimos sem abrir mão do que a formação deve garantir.

Perguntas frequentes

Usar IA prejudica o desenvolvimento do pensamento crítico na pós-graduação?
Depende de como você usa. IA como substituta do raciocínio (você pede que ela argumente, ela argumenta, você entrega) provavelmente sim: porque o desenvolvimento do pensamento crítico acontece precisamente no processo de construir e defender argumentos próprios. IA como ferramenta auxiliar (para organizar fontes, checar coerência lógica, explorar contra-argumentos) pode ampliar esse desenvolvimento se usada conscientemente.
Programas de pós-graduação deveriam proibir o uso de IA?
Proibição total não é realista nem necessariamente desejável. O que os programas precisam é de políticas claras que definam quais usos são aceitáveis, como declarar esse uso, e como as avaliações vão verificar que o pensamento é genuinamente do estudante. O modelo de proibição sem discussão tende a empurrar o uso para a clandestinidade, sem os benefícios pedagógicos de discutir o tema abertamente.
Como saber se estou usando IA de forma que fortalece ou enfraquece minha formação?
Uma pergunta útil: se eu retirasse o que a IA fez, ainda seria capaz de defender as ideias deste texto? Se a resposta for não: se você não consegue explicar o argumento, justificar as escolhas, ou responder perguntas sobre o conteúdo sem a IA: isso é sinal de que o uso está substituindo em vez de apoiar sua formação.
<