IA e autoria científica: se o ChatGPT escreveu, quem é autor?
Se uma IA escreveu parte da sua pesquisa, você ainda é o autor? Entenda o que as principais diretrizes científicas dizem sobre autoria e inteligência artificial.
A questão que os periódicos não conseguem mais ignorar
Olha só: até 2022, a discussão sobre IA e autoria científica era hipotética. Um experimento de pensamento para comitês de ética e editores de periódicos. Dois anos depois, tornou-se prática cotidiana em laboratórios e grupos de pesquisa ao redor do mundo.
Pesquisadores usam ChatGPT para rascunhar seções inteiras de artigos. Usam IA para sintetizar literatura, para refinar argumentos, para melhorar a linguagem em inglês. E então submetem esses artigos listando apenas os humanos como autores, sem mencionar as ferramentas que participaram ativamente do processo de escrita.
O campo científico está tentando estabelecer normas enquanto a prática já acontece. E a pergunta central ainda não tem resposta universal: quando a IA escreve parte de um trabalho científico, o que isso significa para a autoria?
O que a autoria científica significa, antes da IA
Para entender o problema, é preciso voltar ao conceito de autoria no campo científico. A autoria não é apenas a identidade de quem digitou as palavras. É uma responsabilidade formal.
O ICMJE, que estabelece as diretrizes de autoria mais seguidas no mundo biomédico, define quatro critérios para que alguém seja considerado autor: contribuição substancial para a concepção ou desenho do estudo, ou para a coleta, análise ou interpretação dos dados; participação na redação ou revisão crítica do conteúdo intelectual; aprovação da versão final do manuscrito; e responsabilidade por todos os aspectos do trabalho, incluindo garantir que questões sobre precisão e integridade sejam investigadas e resolvidas.
Esses critérios têm uma lógica clara: o autor é quem pode ser chamado a responder pelo trabalho. Se um dado foi contestado, se uma análise foi questionada, se uma conclusão foi considerada incorreta, o autor é quem tem de responder.
Uma IA não pode responder por nada. Não tem responsabilidade legal, não pode ser contactada para esclarecimentos, não pode corrigir um erro publicado. Por isso, os principais comitês de ética científica são unânimes: a IA não pode ser listada como autora.
Mas se a IA escreveu, o pesquisador ainda é o autor?
Aqui está a tensão real. Se o critério de autoria inclui “redação ou revisão crítica do conteúdo intelectual”, e grande parte da redação foi feita por uma IA, o pesquisador ainda atende a esse critério?
A resposta das principais organizações científicas tem sido: sim, desde que o pesquisador supervisione, valide e assuma responsabilidade pelo que foi produzido. Mas isso não é uma carta branca. É uma condição.
Usar IA para gerar um rascunho de parágrafo e revisá-lo criticamente antes de incorporar ao artigo é diferente de aceitar o texto gerado sem verificação e inserir no manuscrito. No primeiro caso, o pesquisador exerceu o julgamento intelectual que a autoria exige. No segundo, não.
O problema prático é que a fronteira entre “revisão crítica” e “aceitação passiva” é difícil de estabelecer e impossível de verificar externamente. O campo científico está apostando na transparência como mecanismo de responsabilização: se você declarar como usou a IA, a comunidade pode avaliar se o uso foi adequado.
Autoria e responsabilidade: o que está em jogo
Quando um artigo científico é publicado com dados incorretos, com análise equivocada ou com conclusões que não se sustentam, quem responde? Os autores listados. Não o software que ajudou a escrever. Não a IA que sugeriu os argumentos. Os autores humanos.
Essa responsabilidade tem peso real. Retratações de artigos afetam carreiras. Suspeitas de fraude são investigadas por comitês de ética. Pesquisadores que não conseguem defender metodologicamente seus próprios artigos perdem credibilidade no campo.
O crescimento do uso de IA na escrita acadêmica não transfere essa responsabilidade. Ela permanece inteiramente com os autores humanos. O que muda é que agora os autores precisam exercer supervisão ativa sobre uma etapa do processo que antes estava inteiramente sob seu controle: a produção do texto.
Isso significa que a adoção de IA na escrita acadêmica não é uma decisão técnica neutra. É uma decisão que tem implicações diretas sobre o nível de responsabilidade que o pesquisador está assumindo. E assumir essa responsabilidade de forma consciente é o que distingue o uso ético do uso problemático.
O que os periódicos estão exigindo agora
A maioria dos grandes periódicos internacionais publicou políticas sobre uso de IA entre 2023 e 2025. As diferenças entre elas são de detalhe, mas o princípio comum é consistente:
A IA não pode ser listada como autora. Os autores humanos são responsáveis por todo o conteúdo, incluindo o que foi gerado com auxílio de IA. O uso de IA deve ser declarado explicitamente, especificando a ferramenta, a função e o escopo de uso. O pesquisador deve garantir que nenhuma informação foi fabricada ou distorcida pela ferramenta.
Periódicos como Nature, Science, Lancet e JAMA publicaram políticas específicas. A maioria exige que a declaração de uso de IA apareça na seção de métodos ou em uma nota de transparência separada.
A Portaria CNPq 2664/2026 segue essa tendência, aplicando ao contexto brasileiro as mesmas exigências que o campo internacional vem consolidando. Ignorar essas exigências ao submeter um artigo pode resultar em retratação, não apenas recusa.
Como declarar o uso de IA na prática
A declaração de uso de IA em artigos científicos tem se consolidado como um elemento padrão das instruções aos autores em periódicos de maior impacto. Mas a forma de declarar ainda não está completamente padronizada, o que gera dúvidas.
O princípio geral que funciona é a especificidade. Uma declaração genérica como “foram utilizadas ferramentas de IA durante a elaboração deste trabalho” não fornece informação suficiente para que a comunidade científica avalie o impacto do uso. Uma declaração útil especifica qual ferramenta foi usada, em que etapa do processo (revisão de literatura, redação inicial, análise textual, tradução, revisão gramatical) e como o pesquisador validou o que foi produzido.
Por exemplo: “O ChatGPT (versão GPT-4, OpenAI) foi utilizado para apoiar a revisão gramatical e de linguagem do manuscrito em inglês. Todos os argumentos, análises e conclusões foram desenvolvidos pelos autores. O conteúdo gerado pela ferramenta foi revisado criticamente e modificado conforme necessário.”
Esse nível de detalhe é o que os editores precisam para avaliar se o uso foi metodologicamente adequado. E é o que protege o pesquisador caso o uso seja questionado posteriormente.
O problema das referências geradas por IA
Há uma dimensão específica do problema de autoria que merece atenção separada: as referências bibliográficas fabricadas.
Modelos de linguagem como o ChatGPT têm um comportamento conhecido como alucinação: geram informações plausíveis mas falsas. No contexto de escrita acadêmica, isso se manifesta na forma de referências bibliográficas que não existem. O título parece real, o autor parece plausível, a revista parece existir. Mas o artigo não foi publicado.
Quando um pesquisador usa IA para sugerir referências e não verifica cada uma individualmente, corre o risco de citar trabalhos inexistentes. Isso não é um erro menor. É uma violação de integridade acadêmica que pode comprometer a credibilidade de todo o artigo.
A supervisão humana sobre referências geradas por IA não é opcional. É parte do que significa exercer autoria responsável sobre um texto em que a IA participou.
Quando a IA participa tanto que a autoria vira uma ficção
Existe um cenário extremo que merece ser nomeado com clareza: quando a IA gera a análise, formula os argumentos centrais, escreve as conclusões e o pesquisador basicamente edita o texto sem contribuição intelectual substancial, a autoria listada no artigo é uma ficção.
Isso não é hipotético. É um cenário que editores de periódicos relatam encontrar com frequência crescente, geralmente identificado por inconsistências internas, argumentos circulares e conclusões que não são sustentadas pelos dados apresentados.
A consequência não é apenas ética. É prática. Um pesquisador que não entende profundamente o artigo que submeteu vai ter dificuldade para responder às perguntas dos revisores, para defender as escolhas metodológicas e para dar continuidade à pesquisa a partir daquele trabalho.
Usar IA na escrita acadêmica com integridade significa que o pesquisador ainda precisa ser o autor de fato, não apenas de nome. A IA pode ser uma ferramenta poderosa de escrita. Mas não pode substituir o pensamento.
O que a autoria responsável parece na prática
Na prática, ser autor responsável de um trabalho que usou IA tem algumas implicações concretas.
Você precisa entender cada argumento do seu artigo, mesmo os que a IA ajudou a formular. Se você não consegue explicar por que aquele argumento está ali, sem consultar o texto, há um problema.
Você precisa verificar cada referência individualmente, não confiar que a IA as gerou corretamente.
Você precisa ser capaz de responder às perguntas dos revisores sem depender de nova consulta à IA para entender o que o seu próprio artigo diz.
Você precisa declarar o uso da ferramenta de forma honesta, descrevendo o que ela fez e como você supervisionou o processo.
Isso é autoria. É mais trabalhoso do que delegar a um software. Mas é o que garante que o trabalho seja genuinamente seu, e que você possa sustentá-lo com confiança onde quer que ele seja questionado, sejana b