IA & Ética

Estudo de Caso: Mestranda Usou IA e Foi Aprovada

Como uma mestranda usou IA de forma ética e transparente na dissertação e passou pela banca sem problemas. Um exemplo real de uso responsável na pesquisa acadêmica.

ia-na-pesquisa mestrado etica-em-pesquisa dissertacao

Uma história que precisa ser contada de forma mais direta

Olha só: o debate sobre IA na pesquisa acadêmica está cheio de abstrações e pouquíssimos exemplos concretos do que acontece na prática. Pesquisadores com medo de usar, pesquisadores usando sem declarar, bancas sem política clara, programas sem orientação definida.

Enquanto isso, uma parte dos pós-graduandos está usando IA de forma responsável, declarando o uso, e chegando às bancas sem drama. Isso também é uma história real, e ela raramente aparece nas discussões.

Vou reconstruir aqui, de forma composta e sem identificação, um caso típico de uso de IA em dissertação de mestrado que passou pela banca sem problemas. Chamo de “caso” mas é uma síntese de situações que conheço e acompanhei, não um relato de uma única pessoa específica.

A mestranda, o tema e a decisão de usar IA

A pesquisa era em educação. Tema: práticas pedagógicas de professores do ensino fundamental com turmas multisseriadas em escolas rurais. Coleta de dados qualitativa, entrevistas semiestruturadas com oito professoras.

A mestranda tinha limitação de tempo: trabalhava 20 horas semanais como professora substituta enquanto cursava o mestrado. A coleta de dados foi feita em dois meses de trabalho intenso. Depois veio a fase que ela descreveu como “o momento de transformar quilos de transcrição em análise”.

Foi aí que ela decidiu usar IA de forma mais sistemática. Mas antes de usar, consultou a orientadora. A orientadora não tinha política formal, mas disse: “se você documentar o que fez e para quê, não vejo problema.”

Essa conversa, ela disse, foi o que a fez se sentir segura para seguir.

O que ela fez com IA e como

Etapa 1: síntese inicial das entrevistas. Ela forneceu as transcrições (que já havia lido integralmente) a um modelo de linguagem e pediu para identificar os temas mais recorrentes em cada entrevista. Usou isso não como análise, mas como ponto de partida para organizar sua própria leitura. O modelo identificou temas que ela já tinha notado e alguns que ela não havia priorizado. Alguns dos que o modelo identificou ela descartou depois de reler. Outros ela manteve porque faziam sentido com a teoria que guiava sua análise.

Etapa 2: verificação de consistência na revisão de literatura. Ela usou um modelo para comparar a definição que ela havia construído de “currículo multisseriado” com as definições dos principais autores do campo. O modelo apontou algumas diferenças de ênfase. Ela voltou às fontes, leu novamente e ajustou sua síntese.

Etapa 3: revisão gramatical e clareza. Depois de escrever os capítulos, ela usou um modelo para identificar frases que poderiam estar confusas e para verificar coerência textual. Não usou para reescrever automaticamente: usava os apontamentos para identificar onde ela mesma precisava reescrever.

Etapa 4: tradução de citações em inglês. Alguns artigos citados estavam em inglês. Ela traduziu usando IA e depois verificou a tradução comparando com o original.

O que ela não fez com IA

Ela não usou IA para escrever nenhuma seção da dissertação. Ela não usou para fazer a análise: a codificação das entrevistas, a identificação de categorias, a interpretação dos dados foi feita por ela, no ATLAS.ti, com o suporte teórico da análise de conteúdo de Bardin.

Ela não usou para gerar argumentos que ela depois apresentou como seus. Ela não usou referências sugeridas por IA sem verificar se os artigos existiam e diziam o que o modelo afirmou.

Essa distinção, entre usar IA como ferramenta de apoio e usar IA como substituto do trabalho intelectual, foi o critério que guiou cada decisão.

A seção de metodologia: onde tudo ficou documentado

Na metodologia da dissertação, ela incluiu uma subseção chamada “Uso de ferramentas de inteligência artificial no processo de pesquisa”. Nessa subseção, ela descreveu:

  • Quais ferramentas usou (especificando o modelo de linguagem)
  • Em quais etapas do processo
  • Com qual propósito em cada etapa
  • Como os outputs foram verificados e integrados
  • Quais etapas não contaram com apoio de IA (análise e interpretação dos dados, escrita dos capítulos)

Eram três parágrafos. Não era uma confissão. Era uma descrição metodológica honesta de como o processo foi conduzido, como qualquer outra descrição metodológica.

A banca e as perguntas

Na defesa, um membro da banca perguntou diretamente sobre o uso de IA declarado na metodologia. A pergunta foi: “Como você garantiu que os temas identificados pela IA na síntese das entrevistas não enviesaram sua própria análise?”

Era uma boa pergunta. A mestranda respondeu com exatidão: ela leu todas as entrevistas antes de usar a IA, então tinha sua própria leitura prévia. Usou o output da IA como mapa de comparação, não como ponto de partida. Alguns temas que o modelo identificou ela não utilizou porque não tinham sustentação na teoria que guiava a análise. O processo de codificação formal foi independente da síntese inicial da IA.

A banca ficou satisfeita. O trabalho foi aprovado com louvor.

O que esse caso mostra

Transparência é proteção, não exposição. Declarar o uso de IA de forma clara e detalhada é o que permite que a banca avalie com critério. Esconder o uso cria risco muito maior: se descoberto, configura problema de integridade. Declarando, você mostra que entende o que fez e por que, e que exerceu julgamento crítico sobre os resultados.

O uso responsável exige que você conheça o que a IA fez. Ela só conseguiu responder à pergunta da banca porque realmente sabia o que o modelo havia produzido e como havia verificado. Quem usa IA sem avaliar criticamente o output não consegue prestar contas do processo.

A conversa com a orientadora é um passo que não pode ser pulado. A orientadora pode ter objeções. Pode ter sugestões. Pode simplesmente alinhar expectativas. Usar IA sem essa conversa é correr um risco desnecessário.

A distinção entre apoio e substituição precisa ser explícita. Não como exercício retórico, mas como decisão real que você toma a cada uso. O trabalho intelectual da pesquisa, análise, interpretação, construção de argumento, deve ser seu. As ferramentas que aceleram etapas de suporte podem ser usadas com responsabilidade.

Por que isso importa além desse caso específico

Enquanto o campo ainda está construindo suas normas sobre IA na pesquisa, exemplos concretos de uso responsável importam mais do que declarações abstratas.

Não porque uso responsável resolve todas as questões éticas em aberto sobre IA na ciência. Há questões mais profundas sobre viés algorítmico, concentração de poder em poucas empresas de tecnologia, impacto na formação de pesquisadores que merecem debate contínuo.

Mas para o pesquisador que está agora no mestrado ou doutorado, com dúvidas práticas sobre o que pode e o que não pode fazer, exemplos como esse oferecem um ponto de referência mais útil do que diretrizes genéricas.

O uso ético de IA na pesquisa é possível. Requer decisões conscientes, documentação honesta e disposição para prestar contas do processo. Não é mais complicado do que isso, e não é menos responsável do que qualquer outra decisão metodológica que um pesquisador toma.

Se você está usando IA na pesquisa e se sentindo culpado sem saber bem por quê, vale a pena verificar se o problema é o uso em si ou a falta de documentação e de conversa com a orientadora. Muitas vezes, são essas duas coisas, não o uso, que estão faltando.

Perguntas frequentes

É permitido usar inteligência artificial na dissertação de mestrado?
Depende da política da instituição e do programa. Muitos programas ainda não têm política formal explícita. O princípio geral que está sendo adotado é: o uso de IA como ferramenta de apoio (revisão gramatical, tradução, busca de literatura, síntese de textos) é aceito desde que declarado. Uso de IA para gerar conteúdo intelectual da pesquisa sem declaração é o que configura problema ético, equivalente a plágio.
Como declarar o uso de IA na dissertação sem comprometer a defesa?
A declaração de uso de IA deve ser específica e honesta: quais ferramentas foram usadas, em quais etapas, com qual propósito, e como os outputs foram verificados e integrados. Uma declaração clara na metodologia, descrevendo o uso como apoio a etapas específicas, demonstra integridade científica e raramente é problemática para bancas quando o uso foi de fato responsável.
A banca pode rejeitar uma dissertação porque usou IA?
Uma banca pode questionar e pedir explicações sobre o uso de IA. A rejeição por uso de IA per se seria incomum e juridicamente questionável na maioria dos contextos institucionais atuais, especialmente quando o uso foi declarado e limitado a funções de apoio. O que pode gerar problema é uso não declarado, ou uso que comprometeu a autoria intelectual do trabalho (análise gerada por IA apresentada como análise da pesquisadora).
<