Fabricação de Dados: O Segredo Sujo da Ciência
Fraude científica existe e é mais comum do que se admite. O silêncio em torno dela custa caro. Uma conversa honesta sobre o que ninguém quer dizer.
Um assunto que a academia prefere não discutir
Olha só: a ciência tem um problema sério com desonestidade, e boa parte do campo prefere não falar sobre isso abertamente. Não porque as pessoas não saibam. Mas porque reconhecer o problema significa confrontar incentivos estruturais que convenêm a muita gente.
Fabricação de dados não é coisa rara que acontece só em escândalos midiáticos. É uma prática que existe em todas as áreas, em todas as hierarquias, e que frequentemente não é punida com a seriedade que merece. Prefiro dizer isso claramente do que fazer de conta que a integridade científica é a norma absoluta que todos praticam.
Isso não significa que a maioria dos pesquisadores frauda. Significa que o sistema produz condições que tornam a fraude mais provável — e que o silêncio em torno do tema piora o problema.
O que conta como fabricação de dados
Fabricar dados é inventar resultados. Não coletar, não medir, não observar — simplesmente criar números, transcrições ou achados que não existem na realidade empírica.
É diferente de erros metodológicos honestos (que também são problemáticos, mas acontecem sem intenção de enganar) e diferente de viés inconsciente de confirmação (que todo pesquisador humano tem e precisa gerenciar). A fabricação é deliberada.
Existe também a falsificação, que é um grau diferente da mesma categoria de problema: manipular dados reais para que contem uma história diferente da verdadeira. Excluir outliers sem registrar, ajustar uma análise estatística para que o p-valor fique abaixo de 0,05, alterar uma transcrição de entrevista para remover contradições — tudo isso é falsificação.
A linha entre “ajustar para publicar” e “falsificar” pode parecer tênue. Não é. Mas o campo frequentemente age como se fosse.
Por que isso acontece: a estrutura antes do indivíduo
Quando um escândalo de fraude científica vem a público, o discurso dominante é sobre o pesquisador individual: sua desonestidade, sua psicologia, suas escolhas morais. E sim, a responsabilidade individual existe. Fabricar dados é uma escolha e não pode ser totalmente atribuída ao sistema.
Mas o sistema importa.
O modelo de avaliação acadêmica que prevalece no Brasil e no mundo é fortemente baseado em quantidade de publicações, fator de impacto dos periódicos e captação de recursos. Em um sistema assim, resultados negativos (pesquisas que não confirmam hipóteses) são muito mais difíceis de publicar do que resultados positivos. Resultados dramáticos publicam mais fácil do que resultados modestos.
Isso cria o que se chama de viés de publicação: a literatura científica não é um espelho fiel do que foi pesquisado, mas uma seleção tendenciosa do que foi aceito para publicação. E isso abre espaço para que pesquisadores — especialmente os que estão sob pressão de produtividade — encontrem caminhos para “ajudar” seus resultados a ficarem publicáveis.
Não estou romantizando nem justificando. Estou dizendo que falar de integridade científica sem falar de estrutura de incentivos é uma conversa incompleta.
O que acontece com quem frauda
Aqui é onde o campo mostra suas contradições mais claras.
Em casos de alta visibilidade, o pesquisador é retratado, pode perder o cargo, perde reputação. O Retraction Watch — banco de dados internacional de artigos retratados — documenta milhares de casos. Alguns são de fabricação flagrante. Outros são de “problemas de manipulação de dados” descritos em linguagem tão amenizada que parece que o periódico está se desculpando com o fraudador.
Mas em casos de baixa visibilidade — e a maioria dos casos é de baixa visibilidade — o que costuma acontecer? Com muita frequência, nada. A carreira segue. O artigo permanece na literatura. Quem tentou denunciar é silenciado ou rotulado de difícil. Alunos que observaram a fabricação dentro de laboratórios frequentemente aprendem, por esse caminho, que a normalização da desonestidade faz parte do jogo.
Isso é grave. Não porque toda a ciência seja corrupta — não é. Mas porque a ausência de consequências consistentes enfraquece os incentivos para a integridade.
Quem paga o preço
Os custos da fraude científica não ficam dentro da academia.
Quando pesquisas clínicas fabricam dados sobre eficácia de medicamentos, pacientes recebem tratamentos baseados em evidências falsas. Quando pesquisas em políticas públicas manipulam resultados, governos tomam decisões com base em ciência que não existe. Quando pesquisas em educação distorcem achados, práticas pedagógicas ruins ganham legitimidade científica que não merecem.
A confiança pública na ciência — que já está fragilizada em muitos contextos — não sobrevive indefinidamente a um campo que não consegue limpar a própria casa com consistência.
O papel das pesquisadoras em formação
Se você está em um mestrado ou doutorado e está lendo isso, talvez esteja se perguntando o que isso tem a ver com você. Provavelmente muito.
Você está aprendendo não só técnicas metodológicas, mas também normas implícitas do campo. O que é tolerado. O que é ignorado. O que é esperado. Se você está em um grupo de pesquisa onde “ajustar os dados” é tratado como prática normal, ou onde os resultados já estão determinados antes da coleta começar, você precisa reconhecer que isso é um problema — e não normalizar porque “todo mundo faz”.
Nem todo mundo faz. E você não precisa fazer.
A integridade na pesquisa começa em decisões pequenas: registrar os dados como eles são, relatar limitações sem minimizá-las, não excluir casos inconvenientes sem justificativa documentada. Não é heroísmo. É metodologia honesta.
As práticas questionáveis que ficam na zona cinzenta
Entre a fabricação franca e a prática completamente honesta existe uma faixa que os pesquisadores de integridade científica chamam de “questionable research practices” (QRPs) — práticas questionáveis de pesquisa. Elas não são necessariamente fabricação, mas distorcem a literatura científica de formas que também causam dano.
Algumas das mais comuns: o HARKing, sigla em inglês para “hypothesizing after results are known” — criar a hipótese depois de ver os dados, mas apresentar como se a hipótese tivesse vindo antes. O p-hacking: testar múltiplas variáveis e análises até encontrar uma que gere significância estatística, sem declarar que foi assim. A exclusão seletiva de casos: remover da amostra os participantes cujos resultados “atrapalharam” a análise, sem declarar critério claro de exclusão.
Essas práticas raramente são nomeadas como fraude pelas pessoas que as fazem. São racionalizadas como “ajuste metodológico”, “refinamento da análise”, “critério de qualidade dos dados”. E é exatamente aí que mora o perigo: é muito mais fácil cruzar essa linha sem perceber do que é cruzar a linha da fabricação.
Alunos de pós-graduação são especialmente vulneráveis a esse aprendizado. Quando o orientador diz “olha, esse resultado ficou estranho, tira esse outlier e roda de novo”, a aluna aprende que isso é normal. Se ninguém nomear o problema, a normalização acontece sem resistência.
O papel da revisão por pares: o que resolve e o que não resolve
Um argumento frequente é que a revisão por pares da publicação científica funciona como filtro contra fraudes. Funciona em parte. Mas tem limitações estruturais importantes que vale conhecer.
Revisores avaliam artigos com base no que está declarado no manuscrito — eles não têm acesso aos dados brutos (embora revistas mais rigorosas estejam exigindo isso com mais frequência), não podem verificar se os procedimentos foram seguidos como descrito, e não conseguem detectar HARKing nem p-hacking a partir do texto final.
Além disso, revisão por pares sofre dos mesmos vieses que o resto da ciência: há evidência de que artigos com resultados positivos passam mais facilmente do que artigos com resultados nulos, que autores de instituições mais prestigiosas têm vantagem, e que o sistema de revisão cega dupla não é tão cego quanto pretende.
A revisão por pares é um mecanismo importante. Mas tratar a publicação em periódico revisado como garantia automática de integridade é um equívoco.
O que pesquisadoras em formação podem fazer
Diante de tudo isso, o que está ao alcance de quem está no começo da carreira?
Documentar seu próprio processo de pesquisa de forma cuidadosa — registrar datas de coleta, versões dos instrumentos usados, decisões metodológicas feitas no caminho. Esse registro não é só para eventual defesa se questionada: é prática de integridade que se torna hábito.
Quando o orientador ou o grupo de pesquisa normaliza práticas que parecem inadequadas, nomear o desconforto. Não precisa ser uma acusação formal. Perguntar “por que estamos excluindo esses dados?” ou “isso está documentado na metodologia?” é exercício de integridade que não expõe ninguém desnecessariamente mas mantém a consciência do processo.
Conhecer os mecanismos de denúncia da própria instituição — não para usá-los obrigatoriamente, mas para saber que existem se a situação chegar a um ponto que exija.
E, talvez o mais difícil: construir sua identidade como pesquisadora em torno do rigor real, não da aparência de rigor. No longo prazo, é o que sustenta uma carreira.
Uma posição clara
Minha posição é simples: fabricação de dados é uma fraude intelectual e social. Não existe versão leve disso.
Mas punir indivíduos sem reformar estruturas é incompleto. O campo precisa de ambas as coisas: responsabilização individual e crítica honesta dos sistemas de avaliação que pressionam pesquisadores a produzir resultados que “funcionem” independente do que a realidade mostrou.
Falar sobre isso em voz alta, sem eufemismos, é uma parte pequena mas necessária dessa reformulação. E começa com não fingir que o problema não existe quando ele claramente existe.
Para conhecer mais sobre como a Nathalia pensa sobre ética e rigor na produção científica, vale passar por sobre e pelo Método V.O.E. — que parte do pressuposto de que a honestidade metodológica e a boa escrita não são opostos, mas parceiros.