IA & Ética

IA e Ética Acadêmica: O que Você Precisa Saber

Como usar inteligência artificial na pesquisa acadêmica com ética: o que é permitido, o que é problemático e como tomar boas decisões em situações ambíguas.

ia-na-pesquisa etica-academica inteligencia-artificial integridade-cientifica

A questão que está em todo programa de pós-graduação agora

Olha só: nos últimos dois anos, nenhum assunto tomou os corredores acadêmicos com tanta velocidade quanto o uso de inteligência artificial na pesquisa e na escrita científica. E com razão.

As ferramentas ficaram mais potentes, mais acessíveis e mais difíceis de detectar. E as normas institucionais não acompanharam o ritmo. O resultado é que muitos pesquisadores, especialmente estudantes de pós-graduação, estão navegando em um território onde as regras ainda estão sendo escritas.

Isso não é desculpa para não pensar sobre o assunto. Na ausência de regras claras, o princípio orientador continua sendo o mesmo de sempre: integridade intelectual.

O que mudou e o que não mudou

O que mudou é que agora existem ferramentas capazes de gerar texto científico convincente, sintetizar literatura, sugerir hipóteses e até simular análises. O que não mudou é o fundamento da ética acadêmica: o conhecimento produzido deve ser genuinamente seu, as afirmações devem ser verificáveis, e a autoria deve refletir a contribuição intelectual real.

A IA muda a forma como algumas tarefas podem ser feitas. Não muda o que é honestidade intelectual.

O espectro do uso de IA na pesquisa

Existe uma diferença enorme entre os extremos do espectro. De um lado, usar o ChatGPT para gerar a sua seção de resultados inteira e apresentá-la como sua. Do outro, usar um corretor gramatical com IA para melhorar o inglês de um abstract que você escreveu.

Entre esses dois extremos, existe um território enorme de usos que merecem análise caso a caso.

Usos que são problemáticos

Usar IA para gerar dados, resultados ou interpretações sem declaração. Isso é fraude científica, não ética ambígua.

Usar IA para fabricar referências bibliográficas. Modelos de linguagem são notoriamente propensos a inventar referências que parecem reais mas não existem. Nunca use uma referência gerada por IA sem verificar a fonte original. Nunca.

Atribuir autoria à IA. Ferramentas de IA não podem ser autoras. Elas não têm responsabilidade intelectual sobre o que produzem. Autoria implica responsabilidade.

Usar IA para escrever partes substanciais do texto sem declaração, em contextos onde as normas exigem trabalho próprio. Isso vale especialmente para dissertações, teses e qualquer trabalho avaliado.

Usos que geralmente são aceitos com transparência

Usar IA para melhorar a fluidez do texto que você escreveu. Revisão de estilo, clareza, gramática e fluência são usos defensáveis quando o trabalho intelectual é genuinamente seu.

Usar ferramentas de IA para revisão de literatura. Elicit, Research Rabbit e Semantic Scholar são ferramentas projetadas para isso e têm sido amplamente usadas. O julgamento sobre a relevância e a qualidade dos artigos ainda é seu.

Usar IA para sintetizar artigos que você leu. Ferramentas que ajudam a resumir papers que você já identificou e avaliou são diferentes de ferramentas que fazem a busca e a avaliação por você.

Usar IA para suporte à tradução ou revisão de inglês. DeepL, Grammarly e revisão por IA são amplamente usados. O texto final é de sua responsabilidade.

Como declarar o uso de IA

A declaração de uso de IA nos artigos está se tornando padrão. A COPE (Committee on Publication Ethics) e a maioria dos grandes periódicos já têm diretrizes. Geralmente, o que é esperado é uma declaração no manuscrito sobre como a IA foi usada e em que partes do processo.

Uma declaração típica pode dizer algo como: “ChatGPT (OpenAI) foi usado para revisar a fluência do texto em inglês na seção de discussão. Nenhuma ferramenta de IA foi usada para geração de conteúdo, análise de dados ou interpretação de resultados.”

Seja específico. “IA foi usada em partes do texto” não é uma declaração adequada.

A questão do detector de IA

Existe uma indústria crescente de detectores de textos gerados por IA. Esses detectores são problemáticos por dois motivos: eles têm alta taxa de falsos positivos (acusam textos humanos de serem gerados por IA) e podem ser contornados com relativa facilidade.

Isso significa que a solução para o problema do uso inadequado de IA na academia não é tecnológica. É cultural. É sobre construir um ambiente em que a honestidade intelectual seja valorizada e os incentivos não favoreçam o atalho.

Isso é uma conversa que a academia ainda está começando a ter.

Uma pergunta que aparece muito: “posso usar IA para X ou vai ser considerado desonesto?”

Minha resposta honesta é: você precisa verificar as normas da sua instituição, do seu programa e do periódico para o qual vai submeter. As políticas variam.

Mas além das normas, existe uma pergunta de integridade que você pode se fazer: se você declarasse exatamente como usou a IA ao seu orientador ou ao editor do periódico, você se sentiria confortável? Se a resposta for não, provavelmente o uso está cruzando uma linha.

Transparência é sempre uma boa bússola quando as regras são ambíguas.

O uso de IA como habilidade, não como substituição

Uma perspectiva que acho importante: saber usar bem as ferramentas de IA na pesquisa é uma competência que vai importar cada vez mais. Não porque a IA vai substituir pesquisadores, mas porque pesquisadores que usam IA com competência e discernimento vão conseguir trabalhar de forma mais eficiente.

A diferença é entre usar IA como ferramenta que amplifica sua competência e usar IA como substituto da sua competência. A primeira posição é defensável. A segunda, não.

Se você quer aprofundar como usar ferramentas de escrita (incluindo IA) com integridade e eficiência, o Método V.O.E. e os recursos disponíveis aqui podem ajudar.

O que fica

O uso de IA na academia não vai desaparecer. As ferramentas vão continuar evoluindo. As normas vão (lentamente) acompanhar.

O que não vai mudar é que conhecimento científico exige que alguém tenha pensado, investigado, questionado e respondido. Ferramentas ajudam nesse processo. Não fazem o processo por você.

A ética acadêmica, em sua essência, é sobre honestidade: honestidade sobre o que você sabe, sobre como chegou a saber, sobre as limitações do que descobriu e sobre quem de fato fez o trabalho. Nenhuma ferramenta de IA muda essa equação.

Como manter registros do uso de IA no processo de pesquisa

Uma prática que começa a aparecer em alguns grupos de pesquisa: manter um “diário de uso de IA” durante o projeto. Não é burocracia. É uma forma de garantir que, no momento de escrever a seção de métodos ou de responder a um revisor, você tem clareza sobre o que foi feito com IA e o que foi feito pelo pesquisador.

Esse registro pode ser simples: data, ferramenta usada, finalidade, e uma linha sobre o que foi feito com o output. Isso também ajuda a evitar a situação comum de, meses depois, não lembrar exatamente como determinada seção foi escrita ou revisada.

Para grupos de pesquisa com múltiplos membros, um protocolo compartilhado sobre uso de IA é ainda mais importante. Cada membro do grupo pode ter práticas diferentes, e isso precisa ser alinhado antes de submeter um artigo com múltiplos autores.

A questão da autoria em trabalhos com IA

Um debate que está acontecendo ativamente na comunidade científica internacional: é possível que um trabalho em que IA gerou texto significativo tenha a autoria integralmente de um pesquisador humano?

A maioria das políticas de periódicos responde que sim, desde que o pesquisador humano assuma responsabilidade intelectual pelo conteúdo. A IA não pode ser coautora porque não pode ser responsabilizada por erros, não pode responder a perguntas de revisores e não tem interesse nos resultados da pesquisa.

Mas essa posição cria uma tensão: se IA gerou 70% do texto de um artigo, e um pesquisador humano revisou e aceitou, quem é o autor intelectual de fato? Essa questão ainda não tem resposta pacificada, e é parte do motivo pelo qual as políticas de declaração de uso de IA são tão importantes.

O que está claro é que a transparência sobre como IA foi usada protege tanto o pesquisador quanto a integridade do registro científico.

Ferramentas de detecção de IA: o que você precisa saber

Uma realidade cada vez mais presente no processo de avaliação acadêmica: programas de pós-graduação e periódicos estão usando ferramentas de detecção de texto gerado por IA. GPTZero, Turnitin (que incorporou funcionalidade de detecção de IA) e outras ferramentas similares são usadas para identificar padrões textuais associados a geração automática.

O problema é que essas ferramentas têm altas taxas de falsos positivos. Textos escritos por humanos não nativos do inglês, por exemplo, são frequentemente sinalizados incorretamente. Pesquisadores que escrevem com vocabulário mais formal ou padronizado também podem ser sinalizados.

Isso não significa que você deva usar essas ferramentas como critério único. Mas significa que você precisa estar preparado para defender, com clareza, o seu processo de escrita se for questionado. Documentar o processo — rascunhos, notas, histórico de versões — é uma forma de evidenciar a autoria humana quando necessário.

O debate em torno dessas ferramentas está longe de ser resolvido. O que parece certo é que a resposta para a questão da IA na academia não vai ser tecnológica (detectar ou não detectar), mas cultural: construir uma norma compartilhada de uso ético que seja clara, razoável e aplicável na prática.

Pesquisadores que pensam agora sobre essas questões — antes de a regulação ser imposta de fora — estão em melhor posição para usar as ferramentas a seu favor, com integridade, e para contribuir para a formação dessas normas dentro das suas comunidades científicas.

Perguntas frequentes

Usar IA para escrever artigo científico é plágio?
Depende de como é usado. Usar IA para gerar texto que você apresenta como seu, sem divulgação, viola normas de integridade acadêmica na maioria dos programas. Usar IA como ferramenta de apoio para revisão, sugestão de estrutura ou melhoria do inglês, com transparência sobre o uso, é geralmente aceito se o trabalho intelectual for genuinamente seu. Verifique as normas da sua instituição e do periódico.
Preciso declarar o uso de IA no meu artigo ou dissertação?
Cada vez mais sim. A maioria dos grandes periódicos científicos já exige declaração sobre o uso de IA na escrita ou análise. Muitos programas de pós-graduação também estão adotando políticas similares. Mesmo onde não há exigência formal, a transparência é uma prática de integridade recomendada.
Quais ferramentas de IA são seguras para usar na pesquisa?
Ferramentas como Elicit, Research Rabbit, Consensus e Semantic Scholar são projetadas para suporte à pesquisa acadêmica e tendem a ser mais confiáveis para revisão de literatura. ChatGPT, Claude e similares podem apoiar escrita e síntese, mas não devem ser usados para gerar dados, referências ou afirmações factuais sem verificação. Nunca confie em referências geradas por IA sem checar a fonte original.

Leia também

Receba estratégias de escrita acadêmica direto no seu feed

Siga a Dra. Nathalia no YouTube e Instagram para conteúdo gratuito sobre o Método V.O.E.