Estudo de Caso: Mestranda Usou IA e Foi Aprovada
Como uma mestranda usou IA de forma ética e transparente na dissertação e passou pela banca sem problemas. Um exemplo real de uso responsável na pesquisa acadêmica.
Uma história que precisa ser contada de forma mais direta
Olha só: o debate sobre IA na pesquisa acadêmica está cheio de abstrações e pouquíssimos exemplos concretos do que acontece na prática. Pesquisadores com medo de usar, pesquisadores usando sem declarar, bancas sem política clara, programas sem orientação definida.
Enquanto isso, uma parte dos pós-graduandos está usando IA de forma responsável, declarando o uso, e chegando às bancas sem drama. Isso também é uma história real, e ela raramente aparece nas discussões.
Vou reconstruir aqui, de forma composta e sem identificação, um caso típico de uso de IA em dissertação de mestrado que passou pela banca sem problemas. Chamo de “caso” mas é uma síntese de situações que conheço e acompanhei, não um relato de uma única pessoa específica.
A mestranda, o tema e a decisão de usar IA
A pesquisa era em educação. Tema: práticas pedagógicas de professores do ensino fundamental com turmas multisseriadas em escolas rurais. Coleta de dados qualitativa, entrevistas semiestruturadas com oito professoras.
A mestranda tinha limitação de tempo: trabalhava 20 horas semanais como professora substituta enquanto cursava o mestrado. A coleta de dados foi feita em dois meses de trabalho intenso. Depois veio a fase que ela descreveu como “o momento de transformar quilos de transcrição em análise”.
Foi aí que ela decidiu usar IA de forma mais sistemática. Mas antes de usar, consultou a orientadora. A orientadora não tinha política formal, mas disse: “se você documentar o que fez e para quê, não vejo problema.”
Essa conversa, ela disse, foi o que a fez se sentir segura para seguir.
O que ela fez com IA e como
Etapa 1: síntese inicial das entrevistas. Ela forneceu as transcrições (que já havia lido integralmente) a um modelo de linguagem e pediu para identificar os temas mais recorrentes em cada entrevista. Usou isso não como análise, mas como ponto de partida para organizar sua própria leitura. O modelo identificou temas que ela já tinha notado e alguns que ela não havia priorizado. Alguns dos que o modelo identificou ela descartou depois de reler. Outros ela manteve porque faziam sentido com a teoria que guiava sua análise.
Etapa 2: verificação de consistência na revisão de literatura. Ela usou um modelo para comparar a definição que ela havia construído de “currículo multisseriado” com as definições dos principais autores do campo. O modelo apontou algumas diferenças de ênfase. Ela voltou às fontes, leu novamente e ajustou sua síntese.
Etapa 3: revisão gramatical e clareza. Depois de escrever os capítulos, ela usou um modelo para identificar frases que poderiam estar confusas e para verificar coerência textual. Não usou para reescrever automaticamente: usava os apontamentos para identificar onde ela mesma precisava reescrever.
Etapa 4: tradução de citações em inglês. Alguns artigos citados estavam em inglês. Ela traduziu usando IA e depois verificou a tradução comparando com o original.
O que ela não fez com IA
Ela não usou IA para escrever nenhuma seção da dissertação. Ela não usou para fazer a análise: a codificação das entrevistas, a identificação de categorias, a interpretação dos dados foi feita por ela, no ATLAS.ti, com o suporte teórico da análise de conteúdo de Bardin.
Ela não usou para gerar argumentos que ela depois apresentou como seus. Ela não usou referências sugeridas por IA sem verificar se os artigos existiam e diziam o que o modelo afirmou.
Essa distinção, entre usar IA como ferramenta de apoio e usar IA como substituto do trabalho intelectual, foi o critério que guiou cada decisão.
A seção de metodologia: onde tudo ficou documentado
Na metodologia da dissertação, ela incluiu uma subseção chamada “Uso de ferramentas de inteligência artificial no processo de pesquisa”. Nessa subseção, ela descreveu:
- Quais ferramentas usou (especificando o modelo de linguagem)
- Em quais etapas do processo
- Com qual propósito em cada etapa
- Como os outputs foram verificados e integrados
- Quais etapas não contaram com apoio de IA (análise e interpretação dos dados, escrita dos capítulos)
Eram três parágrafos. Não era uma confissão. Era uma descrição metodológica honesta de como o processo foi conduzido, como qualquer outra descrição metodológica.
A banca e as perguntas
Na defesa, um membro da banca perguntou diretamente sobre o uso de IA declarado na metodologia. A pergunta foi: “Como você garantiu que os temas identificados pela IA na síntese das entrevistas não enviesaram sua própria análise?”
Era uma boa pergunta. A mestranda respondeu com exatidão: ela leu todas as entrevistas antes de usar a IA, então tinha sua própria leitura prévia. Usou o output da IA como mapa de comparação, não como ponto de partida. Alguns temas que o modelo identificou ela não utilizou porque não tinham sustentação na teoria que guiava a análise. O processo de codificação formal foi independente da síntese inicial da IA.
A banca ficou satisfeita. O trabalho foi aprovado com louvor.
O que esse caso mostra
Transparência é proteção, não exposição. Declarar o uso de IA de forma clara e detalhada é o que permite que a banca avalie com critério. Esconder o uso cria risco muito maior: se descoberto, configura problema de integridade. Declarando, você mostra que entende o que fez e por que, e que exerceu julgamento crítico sobre os resultados.
O uso responsável exige que você conheça o que a IA fez. Ela só conseguiu responder à pergunta da banca porque realmente sabia o que o modelo havia produzido e como havia verificado. Quem usa IA sem avaliar criticamente o output não consegue prestar contas do processo.
A conversa com a orientadora é um passo que não pode ser pulado. A orientadora pode ter objeções. Pode ter sugestões. Pode simplesmente alinhar expectativas. Usar IA sem essa conversa é correr um risco desnecessário.
A distinção entre apoio e substituição precisa ser explícita. Não como exercício retórico, mas como decisão real que você toma a cada uso. O trabalho intelectual da pesquisa, análise, interpretação, construção de argumento, deve ser seu. As ferramentas que aceleram etapas de suporte podem ser usadas com responsabilidade.
Por que isso importa além desse caso específico
Enquanto o campo ainda está construindo suas normas sobre IA na pesquisa, exemplos concretos de uso responsável importam mais do que declarações abstratas.
Não porque uso responsável resolve todas as questões éticas em aberto sobre IA na ciência. Há questões mais profundas sobre viés algorítmico, concentração de poder em poucas empresas de tecnologia, impacto na formação de pesquisadores que merecem debate contínuo.
Mas para o pesquisador que está agora no mestrado ou doutorado, com dúvidas práticas sobre o que pode e o que não pode fazer, exemplos como esse oferecem um ponto de referência mais útil do que diretrizes genéricas.
O uso ético de IA na pesquisa é possível. Requer decisões conscientes, documentação honesta e disposição para prestar contas do processo. Não é mais complicado do que isso, e não é menos responsável do que qualquer outra decisão metodológica que um pesquisador toma.
Se você está usando IA na pesquisa e se sentindo culpado sem saber bem por quê, vale a pena verificar se o problema é o uso em si ou a falta de documentação e de conversa com a orientadora. Muitas vezes, são essas duas coisas, não o uso, que estão faltando.