Posicionamento

IA na Escrita Acadêmica: Ferramenta ou Muleta?

Usar IA para escrever é produtividade ou dependência? Uma reflexão honesta sobre os limites, os riscos e o que realmente está em jogo para pesquisadores.

ia-na-pesquisa escrita-academica etica-academica produtividade posicionamento

A pergunta que muita gente está fazendo, mas poucos respondem com clareza

Olha só: a discussão sobre IA na escrita acadêmica está acontecendo nos dois extremos. De um lado, professores que proíbem qualquer uso com tom de escândalo moral. Do outro, influenciadores de produtividade que vendem cursos de “como escrever sua dissertação em dias com ChatGPT”.

Os dois extremos erram.

Essa conversa merece mais nuance do que costuma receber, especialmente porque as consequências são reais: para o desenvolvimento intelectual de quem pesquisa, para a integridade da produção científica, e para o que significa, de fato, ser autora de um trabalho acadêmico.

Vou ser direta sobre onde estou nessa discussão: acho que IA pode ser uma ferramenta legítima e até poderosa na pesquisa, mas a forma como a maioria das pessoas está usando está criando um problema sério que vai aparecer com força nos próximos anos.

O que conta como “usar IA para escrever”

Antes de qualquer posição, é preciso reconhecer que “usar IA para escrever” é uma categoria bem ampla.

Existe uma diferença enorme entre:

Uso como apoio técnico: revisar gramática, verificar coerência de parágrafo, sugerir palavras alternativas para evitar repetição, formatar referências, traduzir trechos. Esses usos não tocam no conteúdo intelectual do trabalho. A autoria continua sendo do pesquisador.

Uso como interlocutor: descrever para a IA o que você está tentando argumentar e pedir para ela identificar falhas lógicas, sugerir contra-argumentos, ou apontar o que está impreciso. Aqui a ferramenta funciona como um revisor inteligente. O pensamento é seu; a IA ajuda a calibrá-lo.

Uso como gerador de conteúdo: pedir para a IA escrever seções inteiras que você vai usar com pouca modificação, ou gerar o argumento que você depois vai defender como seu. Aqui começa o problema.

A distinção não é de quantidade de texto gerado. É de onde está o pensamento. Quem está argumentando? Você ou a ferramenta?

O que se perde quando a IA escreve por você

Existe uma crença implícita em muito do entusiasmo atual com IA que vale questionar: a ideia de que escrever é apenas produzir texto.

Não é.

Escrever academicamente é um processo de pensar. Quando você tenta colocar em palavras uma ideia que está nebulosa na sua cabeça, o próprio ato de escrever clarifica o pensamento. Você descobre que não entende completamente quando não consegue explicar. Você percebe a fragilidade do argumento quando tenta sustentá-lo em palavras.

Esse processo é lento e frequentemente desconfortável. E é exatamente por isso que é formativo.

Quando você usa IA para fazer essa parte, o texto existe, mas o processo não aconteceu. Você tem um produto sem ter desenvolvido a capacidade que produzi-lo deveria desenvolver.

Para pós-graduandos especialmente, isso importa muito. A dissertação e a tese não são só documentos que precisam ser entregues. São o registro de um processo de desenvolvimento intelectual. Quem usa IA para substituir esse processo está sabotando o próprio desenvolvimento sem perceber.

O risco que pouca gente está nomeando

Além do desenvolvimento individual, há um risco coletivo que me preocupa.

Quando texto gerado por IA começa a circular na academia em grande volume, ele carrega consigo os padrões e tendências dos dados que treinaram os modelos. Esses dados têm vieses, gaps, limitações. E quando pesquisadores param de pensar por conta própria e passam a refinar outputs de IA, esses vieses se propagam e se normalizam.

Há também um problema de calibração epistêmica. Parte do que torna um pesquisador competente é saber o que sabe e o que não sabe, o que pode afirmar e o que não pode. Esse calibre se desenvolve escrevendo, lendo, recebendo feedback, errando. Se a escrita é terceirizada, esse sensor não se forma.

Não é catastrofismo. É uma preocupação que várias pessoas sérias na academia estão levantando, especialmente em relação à formação de novos pesquisadores.

Quando o uso vira dependência

Existe um sinal claro de que o uso de IA foi longe demais: quando você não consegue mais funcionar sem ela.

Testa: escreva um parágrafo sobre o argumento central da sua dissertação sem consultar nenhuma ferramenta. Se você não consegue, ou se o que sai não se parece com o que está escrito no seu trabalho, algo está errado.

Outro sinal: leia seu texto em voz alta. As frases soam como você? Você diria essas coisas da mesma forma? Se a resposta for não, e se você perceber que não conseguiria defender cada frase com as próprias palavras, o texto não é verdadeiramente seu, independentemente de quem assina.

Isso não é uma questão de detecção. É uma questão de integridade com o próprio trabalho e, mais importante, com o próprio desenvolvimento.

O que eu acho que faz sentido

Minha posição é essa: use IA como ferramenta de apoio, não como substituto do pensamento.

Use para revisar depois de ter escrito, não para escrever no lugar de você. Use para identificar inconsistências no argumento que você formulou. Use para reformular frases que ficaram truncadas. Use para expandir um ponto que está raso depois de você já ter desenvolvido a ideia central.

Não use para gerar o argumento. Não use para descobrir o que você pensa sobre um tema. Não use para construir o raciocínio que você deveria estar construindo.

Essa linha nem sempre é óbvia na prática, e haverá casos intermediários. Mas ter a pergunta em mente já ajuda: “O pensamento aqui é meu?”

No Método V.O.E., a escrita é tratada como parte do processo de elaboração intelectual, não como etapa de produção separada do pensar. Essa distinção faz toda a diferença em como você usa (ou não usa) ferramentas externas ao longo do processo.

O que acontece na banca quando o texto não é seu

Há algo que pessoas experientes em banca reconhecem, mesmo que raramente verbalizem com essa clareza: quando um texto não foi pensado pela pessoa que o assina, isso aparece na defesa.

Não necessariamente nos detectores automáticos. Aparece nas perguntas. Quando um membro de banca pergunta “por que você escolheu esse referencial teórico?” ou “como você chegou a essa conclusão?”, a pessoa que construiu o argumento tem uma resposta natural. Quem apenas organizou e refinou outputs de IA fica travada.

A defesa de dissertação ou tese não é uma prova de que você tem um documento. É uma prova de que você desenvolveu um pensamento. E esse pensamento, se existir de fato, aparece. Se não existir, também aparece.

Orientadores experientes percebem ao longo da orientação quando o texto “deu um salto” que não corresponde ao desenvolvimento que viram no processo. Esse salto levanta questões que podem ser muito desconfortáveis depois.

Não é paranoia. É reconhecer que a academia tem mecanismos de verificação da autoria intelectual que vão além das ferramentas automáticas.

Uma nota sobre a pressão de produtividade

Preciso reconhecer o contexto. A pressão sobre pós-graduandos é real: prazos que não são humanos, cobrança por produção, insegurança, síndrome do impostor, orientadores que exigem muito e apoiam pouco. Eu sei disso.

Mas usar IA para terceirizar o pensamento acadêmico nesse contexto não resolve o problema estrutural. Na melhor das hipóteses, adia a confrontação com ele. Na pior, cria uma nova camada de ansiedade: a de ter um trabalho que não é genuinamente seu, que você não sabe completamente defender, e que não te ensinou o que deveria.

O debate sobre IA na academia não pode ser separado do debate sobre as condições de trabalho e de formação dos pesquisadores. São questões que se alimentam mutuamente, e nenhuma das duas tem solução simples.

O que eu defendo é que, dentro das condições que você tem, preserve o que é essencial: o pensamento é seu.

Para refletir mais sobre ética e uso responsável de IA na ciência, veja outros textos neste pilar ou acesse nossa página de recursos gratuitos.

Perguntas frequentes

Usar IA para escrever textos acadêmicos é antiético?
Depende de como você usa. Usar IA para revisar gramática, reorganizar parágrafos ou gerar esboços iniciais que você depois reescreve é diferente de submeter texto gerado por IA como se fosse de sua autoria. O problema ético surge quando a IA substitui o pensamento próprio, não quando ela serve como apoio ao seu processo.
Em que ponto o uso de IA na escrita vira dependência problemática?
Quando você não consegue mais escrever sem a ferramenta. Quando não consegue explicar as ideias do seu texto sem relê-lo. Quando o texto usa IA não substitui o que você pensa, mas produz algo que você nem sabe se concorda. Esses são sinais de que a ferramenta deixou de apoiar e passou a substituir.
Professores e bancas conseguem detectar texto gerado por IA?
Cada vez mais. Mas essa não deveria ser a pergunta principal. A pergunta que importa é: o texto representa genuinamente o seu pensamento? Escrever academicamente não é só produzir texto; é desenvolver capacidade argumentativa. Se você terceiriza a escrita, perde justamente o que o processo de escrever deveria te dar.
<