IA Generativa e Autoria: De Quem É o Artigo Afinal?
Quando você usa IA generativa para escrever um artigo, quem é o autor? Uma discussão necessária sobre autoria, responsabilidade e integridade acadêmica.
A pergunta que todo mundo está fazendo — e poucos respondem com honestidade
Olha só: desde que o ChatGPT virou parte do cotidiano acadêmico, uma questão circula nos corredores das universidades, nos grupos de pesquisadores, nas reuniões de comitê editorial. Mas raramente alguém a responde com clareza.
Quando você usa IA generativa para redigir, reformular ou revisar um artigo científico — de quem é esse artigo?
Não é uma pergunta retórica. Tem implicações práticas para como você assina seu nome em uma publicação, como você responde a uma bancada de avaliadores, e o que acontece quando algo no artigo está errado.
O que autoria científica significa de verdade
Antes de falar sobre IA, precisamos falar sobre o que autoria é. Porque a confusão começa aí.
No senso comum, autor é quem escreveu. Quem tecla, quem produz o texto, é o autor.
Na ciência, não funciona assim.
Os critérios da ICMJE (International Committee of Medical Journal Editors) — referência para milhares de periódicos biomédicos — estabelecem que autoria científica requer quatro condições:
- Contribuição substantiva à concepção, desenho ou análise dos dados
- Participação na redação ou revisão crítica do trabalho
- Aprovação da versão final
- Responsabilidade por todos os aspectos do trabalho — incluindo a capacidade de investigar questões sobre qualquer parte
É essa última condição que é decisiva. Autoria científica não é só sobre quem escreveu. É sobre quem pode responder pelo que está escrito.
Por que a IA não pode ser autora
A IA generativa não possui personalidade jurídica. Não pode assinar documentos, não pode responder juridicamente ou eticamente por afirmações incorretas, não pode ser notificada sobre uma retratação, não pode consentir com nada.
Isso não é uma questão técnica que vai ser resolvida com modelos mais avançados. É uma questão de responsabilidade que exige um sujeito capaz de ser responsabilizado.
Quando um artigo científico contém um erro que prejudica pacientes, professores, estudantes — alguém precisa responder. Esse alguém só pode ser humano.
Por isso, as principais editoras científicas são unânimes: IA não pode figurar como autora. Springer, Elsevier, Wiley, PLOS, as revistas da Nature — todas atualizaram suas políticas nessa direção.
Mas o autor humano ainda é autor quando a IA escreveu?
Aqui está a parte incômoda da conversa.
Se a IA gerou o texto, estruturou os argumentos, formulou as conclusões — e o pesquisador humano apenas editou superficialmente e assinou o nome — esse pesquisador está cumprindo os critérios de autoria?
Responder “sim” exige honestidade sobre o que realmente foi feito.
A autoria científica sempre envolveu colaboração, revisão por pares, apoio editorial, coautores que contribuíram de formas diferentes. O que muda com IA não é a colaboração em si — é a natureza do processo intelectual.
O pesquisador que usa IA para gerar um primeiro rascunho e depois revisa, questiona, reorganiza, acrescenta sua análise crítica, verifica as fontes — esse pesquisador está efetivamente trabalhando intelectualmente. A IA foi uma ferramenta, como o Word é uma ferramenta.
O pesquisador que submete com pequenas alterações de superfície um texto gerado por IA, sem verificar afirmações, sem contribuição intelectual real — esse pesquisador tem um problema de integridade, independentemente do que a política da revista diga.
A diferença não está na ferramenta. Está no nível de responsabilidade intelectual que o pesquisador assume sobre o produto final.
As alucinações são responsabilidade de quem?
Esse é um ponto que precisa ser dito claramente.
Sistemas de IA generativa inventam. Citam artigos que não existem, atribuem afirmações a autores que nunca as fizeram, apresentam dados incorretos com confiança. Isso se chama alucinação — e é um comportamento conhecido, documentado e ainda não resolvido.
Quando isso aparece num artigo publicado com seu nome, a responsabilidade é sua.
“A IA gerou isso” não é uma defesa válida perante um comitê de ética em pesquisa, perante os editores de uma revista, perante seus pares. Você assinou. Você é responsável.
Isso não é argumento contra o uso de IA. É argumento para o uso cuidadoso, com verificação real de cada afirmação, cada citação, cada dado.
O que as revistas estão pedindo
O cenário está evoluindo rapidamente, mas algumas tendências já se consolidaram.
A maioria das revistas de alto impacto passou a exigir declaração explícita do uso de IA generativa no processo de escrita. Alguns pedem que essa declaração esteja na seção de métodos. Outros têm uma nota específica. Alguns permitem o uso apenas para revisão linguística, não para geração de conteúdo científico.
O não cumprimento dessas políticas pode levar à rejeição do manuscrito, retratação após publicação ou outras consequências disciplinares.
Antes de submeter qualquer trabalho: leia a política da revista sobre IA. Hoje. Não amanhã.
Minha posição sobre isso
Uso IA no meu trabalho. Uso para organizar ideias, revisar textos, explorar abordagens alternativas de argumentação.
Mas tenho clareza sobre uma coisa: o artigo, a análise, as conclusões — são meus. Eu respondo por eles. Se estiver errado, é minha responsabilidade investigar, corrigir, responder.
O que me preocupa não é o uso de IA em si. É a erosão silenciosa da responsabilidade intelectual que acontece quando a ferramenta vira muleta.
A ciência funciona porque existe uma cadeia de responsabilidade. Pesquisadores assinam o que dizem. Editores revisam. Pares criticam. Outros pesquisadores replicam ou refutam. Esse sistema é imperfeito, mas é o que garante que o conhecimento científico tem alguma confiabilidade.
Se começarmos a romper essa cadeia — usando IA para gerar conteúdo sem responsabilidade real sobre ele — o que acontece com a confiança no conhecimento científico?
Essa é a pergunta que importa. Não se você pode ou não pode usar IA. Mas se está disposto a responder, com seu nome, pelo que está publicando.
Transparência como postura, não como obrigação
Existe uma diferença entre declarar o uso de IA porque a revista exige e declarar porque você acredita que isso é o certo a fazer.
Pesquisadores que adotam a transparência como postura — não como compliance — estão, na prática, protegendo a si mesmos e contribuindo para que o campo desenvolva normas mais sensatas.
Quando você descreve como usou IA no seu processo de pesquisa (para que finalidade, em que momento, com qual nível de verificação posterior), você está contribuindo para que a comunidade científica aprenda coletivamente a usar essas ferramentas com responsabilidade.
É cedo demais para afirmar que existe uma forma universalmente certa de usar IA na produção científica. Estamos construindo as normas em tempo real. Sua transparência é parte dessa construção.
O que muda quando o texto é bom demais
Há outro fenômeno que vale nomear: a qualidade do texto gerado por IA generativa avançada pode ser convincentemente acadêmica. Bem estruturado, fluente, com aparência de rigor.
Isso cria um risco específico: a sensação de que, porque o texto ficou bom, o trabalho intelectual foi feito. Mas qualidade retórica não é qualidade científica.
Um artigo pode ter parágrafos elegantes e argumentos mal fundamentados. Pode citar corretamente obras que contradizem sua tese. Pode parecer rigoroso e ser superficial.
O trabalho intelectual que a autoria científica exige não é sobre produzir texto bonito. É sobre desenvolver um argumento sustentável, verificável, honesto. Esse trabalho, por enquanto, só um pesquisador pode fazer.
Use IA para o que ela faz bem. Fique responsável pelo que só você pode fazer.