Posicionamento

Produtividade não é sinônimo de publicação: minha posição

O publish or perish criou uma academia obcecada com quantidade de publicações. Mas produtividade real não se mede assim, e é hora de falar sobre isso com clareza.

produtividade-academica publish-or-perish posicionamento cultura-academica

Uma métrica que capturou tudo e mediu mal

Olha só: em algum ponto da história recente da ciência, um indicador específico assumiu o controle da avaliação acadêmica. Não era exatamente a qualidade do trabalho. Não era a relevância das descobertas. Era o número de artigos publicados.

E uma vez que esse indicador ganhou peso institucional, tudo se reorganizou em torno dele. Sistemas de avaliação de programas o adotaram. Critérios de financiamento o usaram. Processo seletivo para vagas o privilegiou. Ao longo do tempo, o número de publicações deixou de ser um indicador aproximado de produtividade e se tornou o objetivo em si.

Esse deslocamento tem consequências que valem nomear.

O que o publish or perish produz na prática

A pressão por publicação contínua não é um fenômeno abstrato. Ela produz comportamentos concretos que qualquer pesquisador reconhece quando começa a observar o ambiente com atenção.

A fragmentação artificial de resultados: um estudo que poderia ser publicado em um artigo robusto é fragmentado em três menores para maximizar o número de publicações. Cada artigo é tecnicamente válido, mas nenhum tem a profundidade que o trabalho completo permitiria.

A preferência por baixo risco: pesquisas com metodologia consagrada em temas consolidados têm maior probabilidade de publicação do que pesquisas exploratórias em temas emergentes. Quando a carreira depende do volume de publicações, o incentivo é escolher projetos que vão publicar, não os que vão contribuir mais. Isso tem custo para a ciência como um todo.

A inflação de autorias: listas de autores em artigos que incluem pessoas com contribuição mínima ou nenhuma, como forma de aumentar o currículo de todos os envolvidos. Em sentido oposto, a exclusão deliberada de colaboradores de listas de autoria para concentrar crédito, o que é uma forma de desonestidade intelectual.

A crise de replicabilidade: quando a pressão para publicar resultados “novos” é alta, o incentivo para publicar resultados negativos ou de replicação de estudos anteriores diminui. Isso produz uma literatura científica com viés de confirmação sistêmico, onde experimentos que não funcionaram raramente aparecem.

Produtividade é diferente de output

A confusão entre produtividade e número de publicações vem de uma simplificação compreensível que ficou grande demais.

Produtividade, em qualquer campo, é a relação entre input e output. Mas no trabalho intelectual, o output relevante não é o documento produzido, é o avanço do conhecimento ou da prática que o documento gera. Um artigo publicado em periódico de alto impacto que muda como o campo entende um fenômeno tem um output completamente diferente de um artigo publicado no mesmo periódico que replica um resultado já consolidado com pequena variação metodológica.

Medir os dois como equivalentes porque ambos geraram uma publicação é uma simplificação que perde exatamente o que importa.

Isso não é argumento para que pesquisadores não publiquem. É argumento para que a pergunta relevante seja “o que este trabalho acrescenta?” e não “este trabalho vai publicar?”.

O que fica de fora da contagem

A avaliação por publicações ignora sistematicamente contribuições que têm valor real para a ciência mas que não produzem artigo indexado.

A orientação bem-feita. Um orientador que forma pesquisadores autônomos, críticos e capazes de conduzir pesquisa de forma independente está fazendo uma contribuição que vai multiplicar-se ao longo de décadas. Isso raramente aparece de forma adequada em métricas de produtividade.

A revisão por pares. O sistema de peer review que sustenta a publicação científica depende de pesquisadores que revisam trabalhos dos outros gratuitamente, sem que isso conte como produção no currículo. Quanto mais a lógica é de maximizar produção própria, menos tempo sobra para essa contribuição coletiva.

A divulgação científica. O pesquisador que traduz resultados de pesquisa para públicos não especializados está fazendo a ciência chegar onde ela precisa chegar para ter impacto social. Em muitos sistemas de avaliação, isso conta zero ou quase zero na métrica de produtividade.

O desenvolvimento de metodologia e instrumentos que outros pesquisadores usam. Criar uma escala validada, um protocolo de análise, um banco de dados público: contribuições que habilitam dezenas de pesquisas futuras mas que podem não resultar em mais do que um artigo descritivo.

Minha posição, com clareza

Neste blog, tenho uma posição que vou colocar diretamente.

Acredito que a medida mais honesta de produtividade de um pesquisador é o impacto do seu trabalho no campo que ele atua e na formação que ele proporciona. Isso inclui publicações, mas não se reduz a elas.

Acredito que o sistema publish or perish, na forma como está estruturado atualmente, produz incentivos que prejudicam a ciência. Não porque publiicar seja ruim, mas porque maximizar publicações e maximizar qualidade científica frequentemente não são a mesma coisa.

E acredito que pesquisadores, especialmente os que estão em formação, merecem ter acesso a essa crítica de forma clara, para que possam tomar decisões sobre as suas carreiras com os olhos abertos sobre o sistema em que estão entrando.

Isso não significa que as regras do jogo não importam. Importam. Quem está construindo carreira acadêmica precisa conhecê-las e jogar de forma estratégica dentro delas. Mas conhecer as regras é diferente de acreditar que elas medem o que deveriam medir.

O que muda quando você desacopla produtividade de publicação

Para pesquisadores que conseguem fazer esse desacoplamento, a relação com o trabalho muda.

A pergunta deixa de ser “quantos artigos posso tirar disso?” e passa a ser “qual é a contribuição mais significativa que este estudo pode fazer?”. Às vezes a resposta resulta em um artigo de alto impacto. Às vezes em uma metodologia que outros vão usar. Às vezes em uma série de orientações que vão moldar a próxima geração de pesquisadores da área.

Isso não vai eliminar a pressão do sistema. Os critérios de avaliação continuam sendo o que são. Mas mudar o critério interno de julgamento, mesmo quando o critério externo permanece, afeta como você conduz o trabalho cotidiano, que pesquisas decide fazer e como decide medir seu próprio progresso.

A cultura do sofrimento acadêmico e a obcecação com publicação são parte

Perguntas frequentes

O que é publish or perish e como isso afeta pesquisadores?
Publish or perish é a expressão que descreve a pressão sobre acadêmicos para publicar continuamente como condição de manutenção de cargo, financiamento e reputação. Na prática, cria incentivos perversos: fragmentação artificial de resultados em múltiplas publicações menores para aumentar o número de artigos, preferência por temas de resultado garantido em vez de temas de alto risco com alto potencial, e uma cultura de avaliação de pesquisadores pelo volume do currículo em vez da qualidade e relevância do trabalho.
Publicar muito é ruim?
Publicar muito não é o problema. O problema é usar o número de publicações como proxy de produtividade intelectual, o que cria incentivos para maximizar quantidade em vez de qualidade e relevância. Um pesquisador que publica 3 artigos por ano em temas que realmente avançam o campo está sendo mais produtivo, no sentido que importa, do que um que publica 12 artigos fragmentados sobre temas de baixo risco em periódicos de baixo impacto.
Como avaliar a própria produtividade de forma mais saudável?
Partindo da pergunta: o meu trabalho está avançando o campo em que atuo? Isso inclui publicações, mas também orientações bem-sucedidas, métodos que outros pesquisadores adotam, materiais didáticos que formam pesquisadores, e participação em debates que moldam a direção da área. Produtividade real é a soma de tudo isso, não apenas o contador de artigos no Lattes.
<