Agentes de IA na Pesquisa: O Próximo Passo
Agentes de IA são sistemas que executam tarefas autônomas em sequência. O que isso significa para pesquisadores e quais as implicações éticas que precisamos discutir.
Quando a IA começa a agir, não apenas responder
Vamos lá. Existe uma diferença importante entre a IA que você já conhece e o que está chegando. A maioria das ferramentas que pesquisadores usam hoje, ChatGPT, Claude, Gemini, funciona no modo pergunta-resposta: você fornece um prompt, a IA gera uma resposta, você lê e decide o que fazer com ela.
Agentes de IA são diferentes. São sistemas que recebem um objetivo e executam uma sequência de ações para alcançá-lo, sem precisar de instrução humana a cada passo. O agente pode buscar artigos, ler os abstracts, identificar os mais relevantes, baixar os textos completos, extrair informações específicas, e entregar um relatório, tudo de forma autônoma.
Isso não é ficção científica. Ferramentas com essa capacidade já existem, algumas comercialmente disponíveis, e o campo está avançando rapidamente. Para pesquisadores, vale entender o que isso significa antes que a tecnologia esteja totalmente integrada nas práticas do campo.
O que agentes de IA podem fazer na pesquisa hoje
Algumas capacidades já existem em versões funcionais, embora com limitações importantes.
Revisão de literatura automatizada. Ferramentas como Elicit e ResearchRabbit já funcionam como agentes parciais: você define um tema, e elas buscam artigos relevantes, identificam conexões, e apresentam sínteses. Não fazem tudo que um pesquisador faria, mas automatizam parte substancial do processo de levantamento.
Coleta e processamento de dados estruturados. Em pesquisas que trabalham com grandes volumes de dados públicos (dados governamentais, redes sociais, bases de documentos), agentes podem automatizar coleta, limpeza e estruturação de dados que antes demandavam semanas de trabalho manual.
Triagem e classificação. Para pesquisas qualitativas com grande volume de material textual, agentes podem fazer uma primeira classificação por categoria ou tema, deixando para o pesquisador humano apenas a verificação e refinamento da classificação.
Geração e verificação de código de análise. Em análise estatística, ferramentas com capacidade de agente podem gerar scripts de análise, verificar erros, e ajustar com base nos resultados preliminares.
Exemplos práticos de agentes que pesquisadores já usam
Para não ficar abstrato demais, vale ver onde agentes já aparecem no cotidiano de pesquisadores, mesmo quando não são chamados por esse nome.
Workflows automatizados com Zapier ou Make. Pesquisadores que criaram automações para: quando um novo artigo com palavras-chave específicas entra no Google Scholar, ele é automaticamente salvo no Zotero e aparece num canal de Slack ou num arquivo de texto. Isso é um agente básico: percebe um evento, executa uma sequência de ações, sem intervenção humana a cada passo.
Notebooks Jupyter com execução automatizada. Um notebook de análise que, ao receber novos dados, executa automaticamente toda a pipeline de análise, gera visualizações e salva relatório é um agente de análise. Quando configurado adequadamente, garante que o mesmo processo seja aplicado consistentemente a cada conjunto de dados.
Ferramentas de triagem bibliométrica. Sistemas que monitoram citações dos seus artigos publicados, identificam novos artigos que o citam, e notificam sobre tendências de citação funcionam como agentes de monitoramento bibliométrico.
A distinção importante: esses agentes são úteis quando o pesquisador entende o que eles fazem e consegue verificar os resultados. O risco não é usar automação. É usar automação que você não consegue auditar.
O que muda na lógica da pesquisa
Quando parte do processo de pesquisa é executada por um agente, a lógica de como você documenta e se responsabiliza pelo trabalho muda.
Numa análise de dados feita manualmente, cada decisão é tomada pelo pesquisador: qual teste estatístico usar, como tratar valores ausentes, como interpretar os resultados. Essas decisões são registráveis e explicáveis.
Num processo onde o agente toma decisões intermediárias, essa transparência fica mais difícil. O agente pode ter feito escolhas que levaram ao resultado final sem que o pesquisador tenha aprovado cada passo. E se alguém perguntar “por que você fez X?”, a resposta pode ser “o agente escolheu X” — o que não é metodologicamente satisfatório.
Isso não significa que agentes não podem ser usados. Significa que novos protocolos de documentação precisam ser desenvolvidos para capturar as decisões que agentes tomam.
As questões éticas que o campo ainda não resolveu
Vou ser direta sobre o que ainda está em aberto, porque essas questões afetam você como pesquisadora hoje e ainda mais nos próximos anos.
Autoria e responsabilidade. Quando um agente executa parte substancial do trabalho de pesquisa, as normas atuais de autoria ficam ambíguas. IA não pode ser autora, por convenção. Mas quando um agente fez a triagem de literatura, processou os dados e gerou a análise preliminar, o que significa a autoria do pesquisador humano que supervisionou o processo?
Rastreabilidade. A ciência depende da capacidade de outros pesquisadores reproduzirem e auditarem o trabalho publicado. Se parte do processo foi feito por um agente cujas decisões internas não são completamente transparentes, como garantir essa rastreabilidade?
Validação de resultados. Quando o agente gera resultados, quem verifica se os resultados fazem sentido? O pesquisador humano precisa ter conhecimento suficiente do domínio para identificar erros do agente. Usar agentes em áreas que o pesquisador não domina suficientemente para validar os resultados é metodologicamente arriscado.
Acesso desigual. Ferramentas de agentes mais poderosas costumam ser caras ou acessíveis apenas em instituições com mais recursos. Isso pode ampliar desigualdades existentes entre pesquisadores de diferentes instituições e países.
O que o pesquisador precisa manter controle
Com todo o potencial dos agentes, há algo que precisa ficar claro: algumas etapas da pesquisa não devem ser delegadas a um agente, independentemente de quanto a tecnologia avance.
A formulação da pergunta de pesquisa é do pesquisador. É aqui que a criatividade, o contexto, a experiência no campo e a percepção de lacunas se combinam para criar algo novo. Um agente pode ajudar a explorar variações de uma pergunta, mas a pergunta em si precisa emergir do pensamento humano.
A interpretação dos resultados no contexto mais amplo é do pesquisador. Um agente pode identificar padrões nos dados. Mas o que esses padrões significam para o campo, para a prática, para a teoria, para a comunidade estudada, isso exige julgamento que vai além do que os dados mostram.
A responsabilidade pelos resultados é do pesquisador. Se os dados foram coletados de forma inadequada, se a análise tem um erro, se as conclusões são equivocadas, quem responde é o pesquisador com nome no artigo. Não o agente.
Manter esse controle ativo não é resistência ao progresso. É o que faz de você uma pesquisadora, não apenas uma operadora de ferramentas.
Agentes de IA e o problema da supervisão
Uma questão técnica que tem implicação ética direta: agentes de IA cometem erros. Erros que, num processo manual, você perceberia imediatamente porque você estaria fazendo o passo. Num processo automatizado, o erro pode passar por vários passos antes de aparecer no resultado final, e às vezes nem aparece de forma óbvia.
Pesquisadores que usam agentes para coleta de dados, por exemplo, precisam ter protocolos de verificação: amostras dos dados coletados são verificadas manualmente? Existe critério para identificar dados suspeitos? Como o agente lida com casos que não se encaixam na estrutura esperada?
Pesquisadores que usam agentes para triagem de literatura precisam verificar: quais artigos foram excluídos e por quê? Os critérios de relevância que o agente aplicou fazem sentido para a pesquisa? Há artigos importantes que o agente não identificou?
Nenhum agente é perfeito. E a supervisão humana adequada é o que separa o uso responsável do uso que vai criar problemas metodológicos que aparecem na revisão ou na defesa.
Como se preparar para essa mudança
O campo está mudando rápido, e pesquisadores que não desenvolvem familiaridade com agentes de IA vão ter dificuldade de avaliar criticamente essas ferramentas quando precisarem decidir se usam ou não.
Isso não significa que você precisa virar desenvolvedor de IA. Mas significa que vale entender o que os agentes fazem, quais são seus limites, e como documentar adequadamente seu uso.
A abordagem que recomendo: experimente ferramentas com capacidade de agente em tarefas de baixo risco primeiro. Antes de usar um agente para triagem de literatura em sua pesquisa principal, use-o em um projeto menor onde você consegue verificar todos os resultados manualmente. Isso vai te dar intuição sobre onde a ferramenta acerta e onde erra.
Desenvolva o hábito de registrar o que cada ferramenta fez. Mesmo para usos simples de IA hoje, criar o hábito de documentar vai facilitar muito quando o uso de agentes for mais sofisticado.
Siga as discussões metodológicas da sua área sobre uso de IA. Cada disciplina está desenvolvendo normas específicas, e estar a par desse debate vai te colocar em posição de contribuir para a construção dessas normas em vez de apenas segui-las depois.
O momento em que estamos
Vivemos um momento de transição. As ferramentas estão chegando mais rápido do que as normas que regulam seu uso. Pesquisadores que estão atentos a isso, que experimentam com critério, documentam com rigor, e participam das discussões éticas do campo, estão contribuindo para moldar como a ciência vai incorporar essas tecnologias.
A alternativa, esperar as normas estarem completamente definidas antes de qualquer uso, pode significar ignorar ferramentas que têm potencial real de melhorar a qualidade e eficiência da pesquisa.
A lógica que orienta o Método V.O.E. é útil aqui: intencionalidade. Não usar por moda, não recusar por medo, mas examinar criticamente cada ferramenta, entender o que ela faz, e decidir conscientemente se e como integrá-la ao processo de pesquisa.
O próximo passo com agentes de IA não é automático. Você escolhe se vai dar e como.