Produtividade não é sinônimo de publicação: minha posição
O publish or perish criou uma academia obcecada com quantidade de publicações. Mas produtividade real não se mede assim, e é hora de falar sobre isso com clareza.
Uma métrica que capturou tudo e mediu mal
Olha só: em algum ponto da história recente da ciência, um indicador específico assumiu o controle da avaliação acadêmica. Não era exatamente a qualidade do trabalho. Não era a relevância das descobertas. Era o número de artigos publicados.
E uma vez que esse indicador ganhou peso institucional, tudo se reorganizou em torno dele. Sistemas de avaliação de programas o adotaram. Critérios de financiamento o usaram. Processo seletivo para vagas o privilegiou. Ao longo do tempo, o número de publicações deixou de ser um indicador aproximado de produtividade e se tornou o objetivo em si.
Esse deslocamento tem consequências que valem nomear.
O que o publish or perish produz na prática
A pressão por publicação contínua não é um fenômeno abstrato. Ela produz comportamentos concretos que qualquer pesquisador reconhece quando começa a observar o ambiente com atenção.
A fragmentação artificial de resultados: um estudo que poderia ser publicado em um artigo robusto é fragmentado em três menores para maximizar o número de publicações. Cada artigo é tecnicamente válido, mas nenhum tem a profundidade que o trabalho completo permitiria.
A preferência por baixo risco: pesquisas com metodologia consagrada em temas consolidados têm maior probabilidade de publicação do que pesquisas exploratórias em temas emergentes. Quando a carreira depende do volume de publicações, o incentivo é escolher projetos que vão publicar, não os que vão contribuir mais. Isso tem custo para a ciência como um todo.
A inflação de autorias: listas de autores em artigos que incluem pessoas com contribuição mínima ou nenhuma, como forma de aumentar o currículo de todos os envolvidos. Em sentido oposto, a exclusão deliberada de colaboradores de listas de autoria para concentrar crédito, o que é uma forma de desonestidade intelectual.
A crise de replicabilidade: quando a pressão para publicar resultados “novos” é alta, o incentivo para publicar resultados negativos ou de replicação de estudos anteriores diminui. Isso produz uma literatura científica com viés de confirmação sistêmico, onde experimentos que não funcionaram raramente aparecem.
Produtividade é diferente de output
A confusão entre produtividade e número de publicações vem de uma simplificação compreensível que ficou grande demais.
Produtividade, em qualquer campo, é a relação entre input e output. Mas no trabalho intelectual, o output relevante não é o documento produzido, é o avanço do conhecimento ou da prática que o documento gera. Um artigo publicado em periódico de alto impacto que muda como o campo entende um fenômeno tem um output completamente diferente de um artigo publicado no mesmo periódico que replica um resultado já consolidado com pequena variação metodológica.
Medir os dois como equivalentes porque ambos geraram uma publicação é uma simplificação que perde exatamente o que importa.
Isso não é argumento para que pesquisadores não publiquem. É argumento para que a pergunta relevante seja “o que este trabalho acrescenta?” e não “este trabalho vai publicar?”.
O que fica de fora da contagem
A avaliação por publicações ignora sistematicamente contribuições que têm valor real para a ciência mas que não produzem artigo indexado.
A orientação bem-feita. Um orientador que forma pesquisadores autônomos, críticos e capazes de conduzir pesquisa de forma independente está fazendo uma contribuição que vai multiplicar-se ao longo de décadas. Isso raramente aparece de forma adequada em métricas de produtividade.
A revisão por pares. O sistema de peer review que sustenta a publicação científica depende de pesquisadores que revisam trabalhos dos outros gratuitamente, sem que isso conte como produção no currículo. Quanto mais a lógica é de maximizar produção própria, menos tempo sobra para essa contribuição coletiva.
A divulgação científica. O pesquisador que traduz resultados de pesquisa para públicos não especializados está fazendo a ciência chegar onde ela precisa chegar para ter impacto social. Em muitos sistemas de avaliação, isso conta zero ou quase zero na métrica de produtividade.
O desenvolvimento de metodologia e instrumentos que outros pesquisadores usam. Criar uma escala validada, um protocolo de análise, um banco de dados público: contribuições que habilitam dezenas de pesquisas futuras mas que podem não resultar em mais do que um artigo descritivo.
Minha posição, com clareza
Neste blog, tenho uma posição que vou colocar diretamente.
Acredito que a medida mais honesta de produtividade de um pesquisador é o impacto do seu trabalho no campo que ele atua e na formação que ele proporciona. Isso inclui publicações, mas não se reduz a elas.
Acredito que o sistema publish or perish, na forma como está estruturado atualmente, produz incentivos que prejudicam a ciência. Não porque publiicar seja ruim, mas porque maximizar publicações e maximizar qualidade científica frequentemente não são a mesma coisa.
E acredito que pesquisadores, especialmente os que estão em formação, merecem ter acesso a essa crítica de forma clara, para que possam tomar decisões sobre as suas carreiras com os olhos abertos sobre o sistema em que estão entrando.
Isso não significa que as regras do jogo não importam. Importam. Quem está construindo carreira acadêmica precisa conhecê-las e jogar de forma estratégica dentro delas. Mas conhecer as regras é diferente de acreditar que elas medem o que deveriam medir.
O que muda quando você desacopla produtividade de publicação
Para pesquisadores que conseguem fazer esse desacoplamento, a relação com o trabalho muda.
A pergunta deixa de ser “quantos artigos posso tirar disso?” e passa a ser “qual é a contribuição mais significativa que este estudo pode fazer?”. Às vezes a resposta resulta em um artigo de alto impacto. Às vezes em uma metodologia que outros vão usar. Às vezes em uma série de orientações que vão moldar a próxima geração de pesquisadores da área.
Isso não vai eliminar a pressão do sistema. Os critérios de avaliação continuam sendo o que são. Mas mudar o critério interno de julgamento, mesmo quando o critério externo permanece, afeta como você conduz o trabalho cotidiano, que pesquisas decide fazer e como decide medir seu próprio progresso.
A cultura do sofrimento acadêmico e a obcecação com publicação são parte