IA & Ética

Ética no uso de IA na pesquisa: o que está em jogo

Usar IA na pesquisa acadêmica levanta questões éticas reais. Não são questões simples e as respostas ainda estão sendo construídas. Entenda o debate honesto.

ia-na-pesquisa etica-academica inteligencia-artificial integridade-cientifica

Uma pergunta que não tem resposta simples ainda

Olha só: o debate sobre ética no uso de IA na pesquisa acadêmica é um daqueles debates onde as regras ainda estão sendo escritas enquanto a prática já acontece em escala.

Isso cria uma situação estranha. Pesquisadores usam ferramentas de IA todos os dias, às vezes com clareza sobre o que estão fazendo, às vezes sem. Instituições publicam políticas que contradizem outras instituições. Revistas científicas têm posições que mudam a cada seis meses.

Não tenho todas as respostas. Mas tenho uma posição: esse debate importa demais para ser ignorado por qualquer pessoa que se leva a sério como pesquisadora. Vou tentar articular o que está realmente em jogo.

O que torna o uso de IA eticamente problemático na pesquisa

Existem alguns eixos de preocupação que são genuinamente sérios e merecem atenção separada.

O problema da autoria. Pesquisa científica tem autores. Autores assumem responsabilidade pelo que publicam. Quando uma parte substantiva do pensamento, argumentação ou análise vem de um sistema de IA, quem assume a responsabilidade? A IA não pode ser responsabilizada. Ela não pode ser convocada para explicar o raciocínio, corrigir erros ou responder a uma carta de retratação.

A questão não é se a IA “contribuiu”. É: você consegue defender cada afirmação do seu trabalho? Você entende o que está dizendo? Se a IA escreveu um parágrafo que você não seria capaz de produzir por conta própria e que você não verificou com rigor, você tem um problema de autoria.

O problema das alucinações. Sistemas de IA generativa inventam referências com a mesma facilidade com que citam referências reais. Artigos que não existem, autores que nunca escreveram sobre aquele tema, DOIs que levam a outros trabalhos. Se você usa IA para levantar literatura e não verifica cada referência individualmente, vai publicar citações falsas. Isso não é hipótese. Aconteceu em escala.

O problema da transparência metodológica. Pesquisa científica requer que os métodos sejam descritos com clareza suficiente para replicação. Quando ferramentas de IA fazem parte da análise, da revisão de literatura ou da produção do texto, isso é um componente metodológico. Não declarar esse componente é a mesma coisa que omitir qualquer outro elemento metodológico relevante.

O problema do viés opaco. Sistemas de IA são treinados em dados que têm vieses. Esses vieses podem aparecer nas análises que produzem, nas categorias que aplicam a dados qualitativos, nos padrões que identificam em textos. Diferente de um viés do pesquisador humano, que pode ser articulado e contestado, o viés algorítmico frequentemente não é auditável por quem usa a ferramenta.

O que não é necessariamente problemático

Vou ser cuidadosa aqui porque há uma tendência ao alarmismo que não ajuda ninguém.

Usar IA para corrigir gramática e ortografia não é diferente de usar um corretor automático. Isso não cria problema de autoria.

Usar IA para organizar uma lista de possíveis termos de busca em uma revisão de literatura, e depois executar você mesma a busca nas bases de dados e selecionar os artigos com critérios explícitos, é assistência de ferramenta, não substituição do pesquisador.

Usar IA para transcrever entrevistas e depois analisar o texto transcrito com seus próprios critérios é diferente de usar IA para fazer a análise temática.

A linha que importa é: onde termina a assistência de ferramenta e começa a substituição do julgamento do pesquisador? E: o uso foi declarado de forma que o leitor consegue avaliar o que é produto do pesquisador e o que é produto da ferramenta?

O que as revistas científicas estão fazendo

O campo está mudando rápido. Em 2023 e 2024, a maioria das grandes revistas científicas publicou políticas sobre uso de IA. As posições variam, mas algumas tendências são claras.

A maioria das revistas de alto impacto proíbe listar sistemas de IA como autores. Ferramentas não podem assinar trabalhos porque não podem ser responsabilizadas.

A maioria das revistas exige declaração de uso de IA. O lugar dessa declaração varia: alguns pedem na seção de métodos, outros em uma seção separada de contribuição, outros na carta de cobertura.

Algumas revistas proíbem uso de IA para geração de texto de forma ampla. Outras permitem com declaração. Muitas estão em uma posição ambígua.

O que isso significa na prática: antes de submeter para qualquer revista, leia as instruções para autores sobre IA. Essa seção agora existe na maioria das revistas sérias e tem força de política editorial.

O que as instituições brasileiras estão fazendo

O MCTI (Ministério da Ciência, Tecnologia e Inovações) e a CAPES publicaram documentos orientadores sobre o tema. As diretrizes gerais apontam para transparência como princípio central, sem proibição absoluta do uso de ferramentas de IA.

Muitas universidades brasileiras publicaram suas próprias políticas, algumas mais restritivas, outras mais permissivas. O problema é que essas políticas frequentemente têm alcance limitado na prática e não chegam de forma clara a todos os programas de pós-graduação.

A orientação mais prática que posso dar: pergunte ao seu orientador e à coordenação do seu programa o que a instituição estabelece sobre uso de IA em dissertações, teses e artigos antes de usar. Não assuma que o silêncio significa permissão.

O argumento que precisa ser feito com honestidade

Existe uma narrativa que circula em certos espaços acadêmicos: “IA é só uma ferramenta, como calculadora ou processador de texto.”

Essa comparação tem um problema. Calculadoras realizam operações específicas e verificáveis. Processadores de texto formatam texto que o pesquisador escreveu. Sistemas de IA generativa produzem conteúdo novo baseado em padrões estatísticos de enormes conjuntos de dados, de forma que o usuário frequentemente não consegue verificar ou replicar o raciocínio.

A escala da contribuição importa. Uma calculadora não interfere no argumento, só no cálculo. Um sistema de IA que escreve um parágrafo de discussão está potencialmente interferindo no argumento. Essa diferença não é pequena.

Ao mesmo tempo, a posição oposta, “IA não deve ser usada em nada relacionado à pesquisa”, ignora que as ferramentas já fazem parte do fluxo de trabalho de muitos pesquisadores de formas que claramente não comprometem a integridade. Essa posição também não é sustentável.

Como penso sobre isso na minha própria prática

Quando uso ferramentas de IA como assistência no trabalho acadêmico, faço três perguntas:

Eu consigo defender cada afirmação no texto como minha? Se tem um parágrafo que a IA produziu e que eu não seria capaz de articular de outra forma, sem entendê-lo plenamente, aquele parágrafo não deveria estar ali.

Eu verifiquei cada referência individualmente? Cada DOI abre para o artigo certo? O artigo diz o que eu afirmo que diz? A IA não verifica. Eu preciso verificar.

Eu declarei o uso de forma clara? O leitor consegue saber como a IA participou do processo? Não como confissão, mas como transparência metodológica.

Essas três perguntas não resolvem todos os dilemas éticos do uso de IA na pesquisa. Mas colocam o pesquisador de volta no centro da responsabilidade, que é onde ele precisa estar.

Por que esse debate importa para pesquisadoras em formação

Quem está no mestrado ou doutorado agora vai construir sua identidade como pesquisadora durante um período de transição tecnológica intensa. As escolhas que você faz agora sobre como usar IA, com que nível de transparência e com que nível de verificação, vão definir seus hábitos de pesquisa por muito tempo.

Isso não é argumento para não usar nenhuma ferramenta. É argumento para usar com consciência do que está em jogo: a confiabilidade do que você publica, a integridade do seu campo e a credibilidade que você vai construir como pesquisadora ao longo da carreira.

O debate ético sobre IA na pesquisa não vai desaparecer. As ferramentas vão ficar mais poderosas e as questões vão ficar mais complexas. Ter clareza sobre princípios agora é mais valioso do que ter regras que vão mudar.

Perguntas frequentes

É ético usar IA para escrever uma dissertação ou artigo científico?
Depende de como e com que transparência. Usar IA para rascunhar, corrigir gramática ou organizar ideias é diferente de submeter texto gerado por IA como se fosse inteiramente seu sem declarar isso. O problema ético central é a transparência: se você não informa como a IA foi usada, o leitor e os revisores tomam decisões com base em informação incompleta sobre a autoria.
Quais são os principais riscos éticos do uso de IA na pesquisa científica?
Os principais riscos são: fabricação de referências (alucinações da IA), atribuição de autoria indevida quando a IA faz contribuições substantivas, viés algorítmico na análise de dados, falta de transparência metodológica e dependência excessiva em ferramentas não auditáveis. Cada um desses riscos tem impactos diferentes e exige respostas diferentes.
Como devo declarar o uso de IA em artigos científicos?
A maioria das revistas científicas exige agora que o uso de ferramentas de IA seja declarado na seção de métodos ou em uma seção específica de contribuição de autores. A declaração deve especificar qual ferramenta foi usada, para qual finalidade e como os resultados foram verificados pelo pesquisador humano. Consulte as instruções para autores da revista específica.
<