A avaliação CAPES prejudica programas menores?
Os critérios da CAPES foram feitos para grandes centros urbanos de pesquisa? Uma análise honesta sobre o sistema de avaliação de pós-graduação e seus pontos cegos.
Uma pergunta que o sistema evita fazer
Vamos lá. O sistema de avaliação dos programas de pós-graduação no Brasil foi desenhado com boas intenções: garantir qualidade, promover comparabilidade, identificar excelência. E em muitos aspectos funciona.
Mas existe uma pergunta que raramente aparece com clareza no debate: os critérios da CAPES medem qualidade científica real, ou medem a capacidade de atender a uma agenda de pesquisa que foi desenhada com os grandes centros urbanos em mente?
Esta não é uma acusação. É uma questão legítima que vale examinar.
Como o sistema funciona, resumido
A avaliação CAPES acontece a cada quatro anos e produz notas de 1 a 7 para cada programa de pós-graduação do país. Programas com notas 1 e 2 são descredenciados. Notas 3 a 5 são para programas de mestrado (apenas) ou com doutorado. Notas 6 e 7 indicam excelência internacional e são acessíveis apenas a programas com doutorado.
Os critérios são agrupados em grandes dimensões: produção intelectual (quantidade e qualidade das publicações), formação de recursos humanos (titulações, tempo de conclusão), inserção social (impacto regional, parcerias) e internacionalização.
O peso de cada dimensão varia por área do conhecimento, e as áreas definem seus próprios documentos de área com critérios específicos. Isso já cria diferenças significativas entre programas de exatas, humanidades, saúde e biológicas.
Os pontos cegos do sistema
O critério de produção intelectual favorece quem já tem estrutura. Publicar em periódicos Qualis A1 e A2, que são os mais valorizados, exige tempo, recursos para taxa de publicação (em muitas áreas), acesso a bases de dados, domínio do inglês científico, e frequentemente parcerias internacionais.
Pesquisadores em programas menores, especialmente em regiões Norte, Nordeste e Centro-Oeste, frequentemente têm carga didática maior, menos assistência administrativa, laboratórios com menos equipamentos, e menos verba para viagens e participação em congressos. Produzir no mesmo volume que pesquisadores em grandes centros, nessas condições, não é só difícil. É injusto usar o mesmo metro para medir.
A internacionalização é um critério real, mas com armadilhas. Publicar em inglês, ter parcerias com universidades estrangeiras, ter alunos em doutorado sanduíche: tudo isso é positivo para a ciência brasileira quando acontece com qualidade. Mas quando vira métrica obrigatória para programas que estão em municípios distantes de grandes aeroportos, sem recursos para trazer visitantes internacionais ou mandar alunos para o exterior, o critério mede outra coisa: acesso a recursos, não qualidade científica.
O critério de “inserção social” é frequentemente subvalorizado. Um programa de pós-graduação em Saúde Coletiva no Maranhão que forma pesquisadores que ficam no estado e impactam políticas de saúde locais está fazendo algo extremamente valioso. Esse tipo de inserção regional e social costuma contar menos do que publicações em periódicos europeus.
O tempo de titulação como critério penaliza contextos de maior adversidade. Alunos de programas em contextos socioeconômicos mais difíceis, com menos renda, às vezes trabalhando para se sustentar durante o mestrado, tendem a levar mais tempo. Isso reflete contexto, não qualidade do programa.
O que os dados sugerem (sem inventar números)
Sem citar dados específicos que não posso verificar, a desigualdade regional na distribuição de notas CAPES é observável: a concentração de programas com notas 6 e 7 nas regiões Sul e Sudeste é notória e amplamente documentada em análises da própria CAPES.
Isso pode refletir diferenças reais de qualidade. Mas também pode refletir diferenças de recursos, de histórico institucional, de acesso a financiamento, e de uma lógica avaliativa que tende a confirmar hierarquias já existentes.
O sistema de avaliação não criou essa desigualdade do zero. Mas pode estar perpetuando-a.
Minha posição
Acho que o sistema da CAPES tem valor. A avaliação periódica, com critérios públicos e comparáveis, é melhor do que nenhuma avaliação ou do que avaliações puramente políticas.
Mas há problemas reais na forma como os critérios são aplicados uniformemente a realidades muito diferentes.
Um sistema de avaliação mais justo diferenciaria com mais cuidado programas consolidados em grandes centros de programas em consolidação em regiões com menos recursos. Valorizaria mais explicitamente o impacto local e regional da ciência, não apenas a circulação internacional. E criaria critérios de internacionalização que considerassem as condições reais de acesso a esse tipo de inserção.
Isso não significa baixar o nível. Significa medir com instrumentos adequados a cada contexto.
A questão da comparabilidade entre áreas
Há outro problema menos discutido: a variação entre áreas do conhecimento dentro do próprio sistema.
Em ciências exatas e da vida, o número de publicações que um pesquisador produz tende a ser maior, porque o modelo de artigo curto e frequente domina a área. Em humanidades e ciências sociais, monografias e livros são produtos centrais, e o tempo de produção por obra é naturalmente maior.
O sistema da CAPES tem documentos de área que tentam ajustar esses critérios, e é correto que o façam. Mas a percepção de pesquisadores em humanidades de que seus programas são estruturalmente desfavorecidos em relação às ciências biológicas e da saúde é recorrente e não pode ser simplesmente descartada.
A tradução disso em bolsas distribuídas tem consequências concretas: um programa de história ou sociologia pode ter muito mais dificuldade de atrair bolsas CAPES do que um programa de bioquímica com produção bibliométrica comparável em termos de esforço real.
A reação dos programas: boa e ruim
Uma consequência previsível do sistema de avaliação é que os programas adaptam seu comportamento para maximizar as métricas avaliadas, independentemente de se isso corresponde à melhor forma de fazer ciência naquela área.
Isso pode ser bom: a pressão por publicação pode motivar pesquisadores que de outra forma seriam menos produtivos. Pode estimular colaborações e internacionalização genuínas.
Mas também pode ser ruim: programas que priorizam publicação sobre formação, que orientam alunos a publicar cedo e em parceria forçada para acumular pontos, que descartam linhas de pesquisa mais criativas mas menos “pontuáveis”. A lógica do sistema vai moldando a lógica da pesquisa, e isso tem custos que não aparecem nos índices bibliométricos.
O que você pode fazer com essa informação
Se você está escolhendo um programa: pesquise a nota CAPES, mas também pesquise o que os pesquisadores daquele programa estão produzindo e onde. Uma nota 4 em um programa sólido de uma região com menos recursos pode ser muito mais representativa de qualidade real do que uma nota 5 em um programa grande em São Paulo que se beneficia de infraestrutura acumulada por décadas.
Se você está em um programa de nota mais baixa: entenda que isso não significa necessariamente pesquisa de menor qualidade. Significa, muitas vezes, pesquisa feita em condições mais difíceis.
Se você está em posição de influenciar avaliações, documentos de área ou políticas de ciência: o debate sobre critérios mais equitativos é legítimo e precisa de mais vozes dentro dos próprios espaços de decisão.
A ciência brasileira se faz em todo o país, em contextos muito diferentes. A avaliação que a mede deveria conseguir enxergar isso com mais clareza e equidade.
Sobre os critérios de avaliação e como eles afetam quem está em formação agora, veja também a discussão sobre o valor real das notas Qualis e o que isso significa para escolher onde publicar.