IA não vai te salvar se você não souber pesquisar
Ferramentas de IA ampliam o que você já sabe fazer. Não substituem habilidades que você ainda não tem. Pesquisadores que ignoram esse ponto estão construindo sobre areia.
O problema que está se criando silenciosamente
Olha só: existe uma geração de pesquisadores iniciando a pós-graduação com acesso a ferramentas que foram criadas depois que as gerações anteriores já tinham desenvolvido as habilidades fundamentais de pesquisa. E há um risco específico nessa situação que raramente é nomeado com clareza.
Ferramentas de IA podem dar a sensação de domínio de habilidades que ainda não foram desenvolvidas. Você pede ao ChatGPT para explicar um conceito teórico complexo e a explicação parece boa. Mas você consegue avaliar se é precisa? Você pede à ferramenta para sugerir conexões entre autores e as sugestões parecem inteligentes. Mas você consegue identificar se fazem sentido para o campo em que está?
Essa distinção entre parecer saber e saber é onde o problema está.
O que IA generativa realmente faz
Modelos de linguagem são muito bons em uma coisa específica: gerar texto coerente e plausível com base em padrões aprendidos em grandes volumes de texto.
Isso é útil para muitas tarefas: reformular parágrafos, verificar coerência de argumentos, organizar notas, traduzir, sugerir estruturas. Tarefas onde o critério de qualidade é linguístico e estrutural, e onde erros são detectáveis por qualquer leitor atento.
Mas não é o que a pesquisa científica exige em seus pontos mais críticos. Pesquisa exige julgamento sobre relevância, originalidade e validade, e esse julgamento depende de conhecimento do campo que nenhuma ferramenta tem por você.
As habilidades que se desenvolvem fazendo
Existem habilidades de pesquisa que só se desenvolvem fazendo o trabalho, não lendo sobre ele nem pedindo que uma ferramenta faça no lugar.
Formular uma boa pergunta de pesquisa exige conhecer o campo bem o suficiente para saber o que já foi respondido, o que ainda não foi, e o que seria relevante investigar. Uma ferramenta pode sugerir perguntas baseada em padrões de texto. Não tem como saber o que é realmente um gap no campo que você está estudando.
Avaliar a qualidade de uma fonte exige saber o que é um periódico de alto impacto na sua área, o que é uma metodologia robusta para o tipo de pergunta feita, quais são os debates metodológicos que afetam a interpretação dos resultados. Esse conhecimento se constrói lendo, errando na avaliação e corrigindo ao longo do tempo.
Interpretar dados à luz do referencial teórico é uma habilidade que só existe quando você tem o referencial teórico. Pedir à IA que interprete os dados por você produz uma interpretação baseada em padrões gerais, não na relação específica entre os dados e o marco teórico que orienta a sua pesquisa.
Escrever com voz autoral própria é o resultado de anos de leitura, de escrita e de feedback. Não é substituível por um modelo que imita padrões de texto acadêmico, porque voz autoral não é padrão: é o conjunto de escolhas específicas que você faz ao escrever com base no que pensa e no que quer comunicar.
O que acontece quando a base não existe
Pesquisadores que começam a usar IA antes de desenvolver habilidades básicas enfrentam um problema específico: eles não conseguem avaliar a qualidade do output.
Um texto gerado pela IA que soa acadêmico pode estar simplificando uma teoria de forma que distorce seu sentido. Uma referência pode não existir. Uma conexão entre autores pode ser superficial ou equivocada. Uma sugestão metodológica pode ser inadequada para a pergunta de pesquisa.
Quem tem a base teórica e metodológica detecta esses problemas e corrige. Quem não tem passa adiante com confiança, e o problema aparece na banca, na revisão por pares ou mais tarde, quando o erro já está incorporado ao trabalho.
Isso não é argumento para não usar IA. É argumento para investir na base antes de depender das ferramentas.
A distinção que muda tudo
Há uma diferença entre usar IA para fazer o trabalho de forma mais eficiente e usar IA para evitar fazer o trabalho.
Eficiência é: eu li o artigo, entendi o argumento, e uso a IA para me ajudar a reformular o parágrafo de forma mais clara. A análise é minha. A IA melhora a expressão.
Substituição é: eu não li o artigo, peço à IA que me diga o que ele argumenta, e uso essa síntese no trabalho como se fosse minha leitura. A análise seria do artigo. A IA a mediou sem que eu a verificasse. O resultado pode parecer bom, mas eu não tenho a base para saber se é.
O primeiro uso amplifica capacidade. O segundo constrói uma ilusão de capacidade que desmorona quando a habilidade é exigida sem a ferramenta.
O que isso significa na prática
A postura mais inteligente diante das ferramentas de IA disponíveis hoje é aprender a usá-las depois de ter a base, não no lugar de construí-la.
Isso significa ler os artigos antes de pedir resumos. Formular a pergunta de pesquisa sem ajuda. Construir o argumento da revisão de literatura com sua análise. Usar a IA para as tarefas onde ela claramente agrega: organizar notas, verificar coerência, reformular, traduzir, identificar o que você talvez tenha deixado de fora.
Pesquisadores que desenvolvem essa distinção de uso vão ser, no longo prazo, mais capazes do que os que delegam as partes mais difíceis. Não porque rejeitaram as ferramentas, mas porque mantiveram as habilidades que as ferramentas amplificam.
A IA é excelente para acelerar o que você já sabe fazer. Para o que você ainda não sabe, ela pode dar a sensação de que você sabe, que é um problema diferente, e mais grave.
Para entender como usar IA de forma que realmente agrega ao processo, sem comprometer as habilidades fundamentais, o post sobre [como usar IA na escrita acadêmica com ética](/bl