IA e Formação Doutoral: Novas Competências para 2027
A IA está mudando o que significa ser pesquisador. Entenda quais competências o doutorado vai exigir nos próximos anos e por que isso importa agora.
O que o doutorado vai exigir de você que ainda não está nos editais
Vamos lá. Se você está cursando um doutorado agora, ou se planeja entrar em um nos próximos anos, há uma mudança em curso que raramente aparece nos editais mas que vai afetar diretamente sua formação e sua inserção no campo científico: a necessidade de competências em inteligência artificial que vão muito além de “saber usar o ChatGPT”.
Não estou falando de programação. Não estou falando de machine learning para quem não é da área de computação. Estou falando de algo mais específico e mais urgente: a capacidade de trabalhar com IA de forma crítica, documentada e eticamente responsável dentro da pesquisa científica.
Esse conjunto de competências está sendo construído na prática, porque as universidades ainda estão descobrindo o que exigir. Mas é razoável antecipar onde o campo está indo, e vale entender agora o que provavelmente vai ser central em 2027 para quem conclui um doutorado nesse período.
O que mudou na formação doutoral
Por muito tempo, a formação doutoral exigia três coisas no eixo das competências técnicas: dominar o método de pesquisa, dominar as ferramentas de análise da sua área, e dominar a escrita científica. Ainda exige essas três coisas. Mas agora há uma quarta dimensão que está se impondo por pressão prática, não por decisão institucional.
A IA entrou no processo de pesquisa antes que as instituições tivessem tempo de criar políticas claras sobre ela. Pesquisadores de todos os níveis, da iniciação científica ao pós-doutorado, passaram a usar ferramentas de IA para revisão de literatura, síntese de textos, identificação de padrões, análise de dados, tradução, revisão gramatical e escrita.
O resultado é uma situação paradoxal: o uso é generalizado, as políticas são inconsistentes, e a avaliação de como isso afeta a qualidade e a integridade da pesquisa ainda está sendo construída. Os programas de pós-graduação mais avançados já estão exigindo declaração de uso de IA em dissertações e teses. Comitês de ética estão revisando suas diretrizes. Revistas científicas estão revisando suas políticas de submissão.
Faz sentido? Quem está se formando agora está se formando no meio dessa transição. E isso tem consequências concretas para o que você precisa saber.
As competências que vão importar
Literacia crítica de IA. Saber usar uma ferramenta de IA não é a mesma coisa que entender o que ela faz, onde ela erra e por que erra. Um pesquisador com literacia crítica de IA consegue avaliar um output e identificar alucinações, vieses, omissões e problemas de raciocínio. Sabe que uma IA que gera uma síntese de literatura plausível pode estar inventando referências. Sabe que modelos treinados em dados históricos carregam vieses históricos.
Essa competência não se desenvolve usando IA para tarefas simples. Ela se desenvolve usando IA em contextos onde você já sabe a resposta correta e pode comparar. Se você usa IA para sintetizar cinco artigos que você leu, e depois compara a síntese com o que você entendeu dos artigos, você está desenvolvendo avaliação crítica. Se você usa IA para sintetizar artigos que não leu, e confia no resultado, você não está desenvolvendo nada, só arriscando sua pesquisa.
Documentação de uso. A transparência sobre como a IA foi usada na pesquisa está se tornando uma exigência de integridade científica. Isso inclui: quais ferramentas foram usadas, em quais etapas, com que propósito, e como os outputs foram verificados. Em alguns campos e revistas, isso já é obrigatório. Em breve vai ser padrão.
Desenvolver o hábito de documentar o uso de IA agora, enquanto ainda está na formação, coloca você à frente de uma exigência que vai se generalizar. E, mais importante, força você a ser intencional sobre o uso: se você precisa descrever exatamente como usou a IA, você para de usar de forma automática e passa a usar de forma deliberada.
Avaliação de vieses e limitações contextuais. Modelos de linguagem são treinados predominantemente em dados em inglês, de contextos ocidentais, com frequência de publicação que favorece certos campos e marginaliza outros. Se você pesquisa temas do contexto brasileiro, latino-americano, ou de grupos sub-representados na produção científica global, precisa ter consciência de que as ferramentas de IA vão sistematicamente sub-representar esses contextos.
Isso não significa não usar IA. Significa usar com consciência das limitações e buscar fontes complementares que os modelos tendem a ignorar.
Integração responsável ao workflow de pesquisa. O Método V.O.E. parte do princípio de que IA é uma ferramenta de apoio ao processo de pesquisa, não uma substituta do trabalho intelectual do pesquisador. Saber integrar IA de forma que ela amplifica sua capacidade sem comprometer sua responsabilidade intelectual é uma competência que vai distinguir pesquisadores nos próximos anos.
A distinção que importa é entre usar IA para fazer pesquisa mais rapidamente versus usar IA para fazer pesquisa que você não faria sem ela. O primeiro é legítimo. O segundo é problemático, porque terceiriza o julgamento científico que é responsabilidade do pesquisador.
O que as universidades ainda não decidiram
Olha só: há questões em aberto que vão impactar diretamente a formação doutoral nos próximos anos, e vale monitorar como elas se desenvolvem.
Originalidade e contribuição. O critério de que uma tese de doutorado precisa ser uma contribuição original ao conhecimento foi construído num contexto em que a produção intelectual era claramente atribuível a uma pessoa. Com IA no processo, o que conta como contribuição original do pesquisador? Essa discussão está acontecendo nas principais universidades e associações científicas do mundo, e ainda não chegou a consensos estáveis.
Avaliação de competências. Como a banca avalia se o doutorando tem o domínio que afirma ter se parte do processo foi mediado por IA? Algumas universidades estão revisando seus formatos de defesa. Outras estão introduzindo componentes práticos de avaliação que não podem ser delegados a ferramentas. Isso vai continuar evoluindo.
Propriedade intelectual. Quem é o autor de um texto escrito com assistência significativa de IA? Essa não é só uma questão filosófica: tem implicações legais e éticas concretas que o campo científico ainda está processando.
Você vai se formar num campo que está redesenhando suas regras. Isso pode ser desconfortável, mas também é uma oportunidade real: quem desenvolve agora uma posição reflexiva e fundamentada sobre IA na pesquisa vai ter algo a dizer sobre essas questões, não vai apenas ser sujeito delas.
Por que isso importa agora, não em 2027
A formação doutoral não termina quando você defende a tese. Ela continua no seu primeiro emprego acadêmico, nas suas primeiras publicações, nas suas primeiras orientações. As competências que você desenvolve ou deixa de desenvolver durante o doutorado vão moldar quem você é como pesquisador por muitos anos.
Esperar que o campo estabilize suas políticas antes de se posicionar sobre IA é uma estratégia arriscada. O campo não vai estabilizar de forma limpa e prévia. Vai continuar evoluindo, e você vai precisar se adaptar em tempo real. Quem já tem uma base crítica consegue fazer isso. Quem não tem vai reagir a cada nova mudança de forma reativa.
O que faço é tratar IA como ferramenta que exige avaliação contínua, não como solução definitiva nem como problema a evitar. Isso significa experimentar, errar com consciência, documentar, e ajustar. Não é diferente da postura que qualquer bom pesquisador tem em relação a qualquer outro método.
Se você está no doutorado e ainda não pensou seriamente sobre como IA entra no seu processo de pesquisa, agora é um bom momento para começar. Não para ter respostas definitivas, porque elas não existem ainda. Mas para construir as perguntas certas.
Olha, essas competências não estão nos editais de seleção ainda. Mas vão aparecer. Quem começar a desenvolvê-las agora vai estar um passo na frente quando aparecerem.