Posicionamento

IA Generativa e Autoria: De Quem É o Artigo Afinal?

Quando você usa IA generativa para escrever um artigo, quem é o autor? Uma discussão necessária sobre autoria, responsabilidade e integridade acadêmica.

ia-generativa autoria-academica etica-na-pesquisa integridade-academica ia-na-ciencia

A pergunta que todo mundo está fazendo — e poucos respondem com honestidade

Olha só: desde que o ChatGPT virou parte do cotidiano acadêmico, uma questão circula nos corredores das universidades, nos grupos de pesquisadores, nas reuniões de comitê editorial. Mas raramente alguém a responde com clareza.

Quando você usa IA generativa para redigir, reformular ou revisar um artigo científico — de quem é esse artigo?

Não é uma pergunta retórica. Tem implicações práticas para como você assina seu nome em uma publicação, como você responde a uma bancada de avaliadores, e o que acontece quando algo no artigo está errado.

O que autoria científica significa de verdade

Antes de falar sobre IA, precisamos falar sobre o que autoria é. Porque a confusão começa aí.

No senso comum, autor é quem escreveu. Quem tecla, quem produz o texto, é o autor.

Na ciência, não funciona assim.

Os critérios da ICMJE (International Committee of Medical Journal Editors) — referência para milhares de periódicos biomédicos — estabelecem que autoria científica requer quatro condições:

  1. Contribuição substantiva à concepção, desenho ou análise dos dados
  2. Participação na redação ou revisão crítica do trabalho
  3. Aprovação da versão final
  4. Responsabilidade por todos os aspectos do trabalho — incluindo a capacidade de investigar questões sobre qualquer parte

É essa última condição que é decisiva. Autoria científica não é só sobre quem escreveu. É sobre quem pode responder pelo que está escrito.

Por que a IA não pode ser autora

A IA generativa não possui personalidade jurídica. Não pode assinar documentos, não pode responder juridicamente ou eticamente por afirmações incorretas, não pode ser notificada sobre uma retratação, não pode consentir com nada.

Isso não é uma questão técnica que vai ser resolvida com modelos mais avançados. É uma questão de responsabilidade que exige um sujeito capaz de ser responsabilizado.

Quando um artigo científico contém um erro que prejudica pacientes, professores, estudantes — alguém precisa responder. Esse alguém só pode ser humano.

Por isso, as principais editoras científicas são unânimes: IA não pode figurar como autora. Springer, Elsevier, Wiley, PLOS, as revistas da Nature — todas atualizaram suas políticas nessa direção.

Mas o autor humano ainda é autor quando a IA escreveu?

Aqui está a parte incômoda da conversa.

Se a IA gerou o texto, estruturou os argumentos, formulou as conclusões — e o pesquisador humano apenas editou superficialmente e assinou o nome — esse pesquisador está cumprindo os critérios de autoria?

Responder “sim” exige honestidade sobre o que realmente foi feito.

A autoria científica sempre envolveu colaboração, revisão por pares, apoio editorial, coautores que contribuíram de formas diferentes. O que muda com IA não é a colaboração em si — é a natureza do processo intelectual.

O pesquisador que usa IA para gerar um primeiro rascunho e depois revisa, questiona, reorganiza, acrescenta sua análise crítica, verifica as fontes — esse pesquisador está efetivamente trabalhando intelectualmente. A IA foi uma ferramenta, como o Word é uma ferramenta.

O pesquisador que submete com pequenas alterações de superfície um texto gerado por IA, sem verificar afirmações, sem contribuição intelectual real — esse pesquisador tem um problema de integridade, independentemente do que a política da revista diga.

A diferença não está na ferramenta. Está no nível de responsabilidade intelectual que o pesquisador assume sobre o produto final.

As alucinações são responsabilidade de quem?

Esse é um ponto que precisa ser dito claramente.

Sistemas de IA generativa inventam. Citam artigos que não existem, atribuem afirmações a autores que nunca as fizeram, apresentam dados incorretos com confiança. Isso se chama alucinação — e é um comportamento conhecido, documentado e ainda não resolvido.

Quando isso aparece num artigo publicado com seu nome, a responsabilidade é sua.

“A IA gerou isso” não é uma defesa válida perante um comitê de ética em pesquisa, perante os editores de uma revista, perante seus pares. Você assinou. Você é responsável.

Isso não é argumento contra o uso de IA. É argumento para o uso cuidadoso, com verificação real de cada afirmação, cada citação, cada dado.

O que as revistas estão pedindo

O cenário está evoluindo rapidamente, mas algumas tendências já se consolidaram.

A maioria das revistas de alto impacto passou a exigir declaração explícita do uso de IA generativa no processo de escrita. Alguns pedem que essa declaração esteja na seção de métodos. Outros têm uma nota específica. Alguns permitem o uso apenas para revisão linguística, não para geração de conteúdo científico.

O não cumprimento dessas políticas pode levar à rejeição do manuscrito, retratação após publicação ou outras consequências disciplinares.

Antes de submeter qualquer trabalho: leia a política da revista sobre IA. Hoje. Não amanhã.

Minha posição sobre isso

Uso IA no meu trabalho. Uso para organizar ideias, revisar textos, explorar abordagens alternativas de argumentação.

Mas tenho clareza sobre uma coisa: o artigo, a análise, as conclusões — são meus. Eu respondo por eles. Se estiver errado, é minha responsabilidade investigar, corrigir, responder.

O que me preocupa não é o uso de IA em si. É a erosão silenciosa da responsabilidade intelectual que acontece quando a ferramenta vira muleta.

A ciência funciona porque existe uma cadeia de responsabilidade. Pesquisadores assinam o que dizem. Editores revisam. Pares criticam. Outros pesquisadores replicam ou refutam. Esse sistema é imperfeito, mas é o que garante que o conhecimento científico tem alguma confiabilidade.

Se começarmos a romper essa cadeia — usando IA para gerar conteúdo sem responsabilidade real sobre ele — o que acontece com a confiança no conhecimento científico?

Essa é a pergunta que importa. Não se você pode ou não pode usar IA. Mas se está disposto a responder, com seu nome, pelo que está publicando.

Transparência como postura, não como obrigação

Existe uma diferença entre declarar o uso de IA porque a revista exige e declarar porque você acredita que isso é o certo a fazer.

Pesquisadores que adotam a transparência como postura — não como compliance — estão, na prática, protegendo a si mesmos e contribuindo para que o campo desenvolva normas mais sensatas.

Quando você descreve como usou IA no seu processo de pesquisa (para que finalidade, em que momento, com qual nível de verificação posterior), você está contribuindo para que a comunidade científica aprenda coletivamente a usar essas ferramentas com responsabilidade.

É cedo demais para afirmar que existe uma forma universalmente certa de usar IA na produção científica. Estamos construindo as normas em tempo real. Sua transparência é parte dessa construção.

O que muda quando o texto é bom demais

Há outro fenômeno que vale nomear: a qualidade do texto gerado por IA generativa avançada pode ser convincentemente acadêmica. Bem estruturado, fluente, com aparência de rigor.

Isso cria um risco específico: a sensação de que, porque o texto ficou bom, o trabalho intelectual foi feito. Mas qualidade retórica não é qualidade científica.

Um artigo pode ter parágrafos elegantes e argumentos mal fundamentados. Pode citar corretamente obras que contradizem sua tese. Pode parecer rigoroso e ser superficial.

O trabalho intelectual que a autoria científica exige não é sobre produzir texto bonito. É sobre desenvolver um argumento sustentável, verificável, honesto. Esse trabalho, por enquanto, só um pesquisador pode fazer.

Use IA para o que ela faz bem. Fique responsável pelo que só você pode fazer.

Perguntas frequentes

A IA pode ser listada como coautora de um artigo científico?
Não, segundo as principais diretrizes das editoras científicas. A ICMJE, o COPE e a maioria das grandes editoras (Springer, Elsevier, Wiley) estabelecem que autoria científica requer responsabilidade — capacidade de responder pelas afirmações do trabalho, aprovar a versão final e aceitar accountability. A IA não possui personalidade jurídica, não pode responder por erros e não tem capacidade de consentimento. Portanto, não pode ser listada como autora. Isso não significa que o uso de IA seja proibido — apenas que a ferramenta não substitui o autor humano.
Sou obrigado a declarar o uso de IA generativa em meu artigo?
Depende da política da revista onde você está submetendo. Muitas editoras já exigem declaração explícita do uso de IA na seção de métodos ou em uma nota específica. Algumas pedem descrição detalhada de como a ferramenta foi usada. Antes de submeter, verifique as instruções para autores da revista. Como regra geral: transparência é sempre a postura mais segura e mais alinhada com a integridade científica.
Usar IA generativa para escrever partes do artigo é plágio?
A resposta não é simples. Plágio é apresentar como próprio o trabalho intelectual de outra pessoa. IA não é uma pessoa, então a definição tradicional de plágio não se aplica diretamente. Mas muitas instituições e revistas têm políticas específicas contra uso não declarado de IA — e não declarar o uso quando a política exige pode ser tratado como desonestidade acadêmica. Além disso, se o texto gerado por IA reproduz passagens de obras existentes sem citação (o que acontece), há risco real de plágio não intencional. Declare o uso, verifique as fontes, mantenha responsabilidade pelo conteúdo.
<