IA na Avaliação de Alunos: Ética e Prática
Usar IA para avaliar produções de alunos é uma prática que cresce na academia. O que é possível, o que é problemático e onde estão os limites éticos.
A IA entrou dos dois lados da avaliação
Olha só: enquanto muito se discute sobre alunos usando IA nas produções acadêmicas, uma conversa paralela está acontecendo com muito menos visibilidade — o uso de IA pelos próprios docentes para avaliar essas produções.
É uma realidade. Professores que precisam corrigir dezenas ou centenas de trabalhos por semestre estão experimentando ferramentas de IA para apoiar o processo. Alguns usam de forma transparente e bem pensada. Outros usam sem declarar. E as implicações éticas desse uso são muito menos discutidas do que as implicações do uso pelos alunos.
Faz sentido olhar para os dois lados com o mesmo critério.
O que “usar IA para avaliar” pode significar
Antes de entrar nos problemas, vale distinguir usos que têm natureza muito diferente:
Usar IA para gerar rubricas e critérios de avaliação. Um professor que pede à IA que ajude a estruturar os critérios para avaliar um trabalho está usando a ferramenta como apoio ao planejamento pedagógico. Isso é diferente de ter a IA atribuindo notas.
Usar IA para dar um primeiro olhar sobre o conjunto de trabalhos. Identificar quais trabalhos têm problemas mais evidentes de estrutura, quais merecem leitura mais detalhada, quais parecem fora do proposto. Esse uso triagem não é intrinsecamente problemático — mas exige que o julgamento final seja humano.
Usar ferramentas de detecção de IA. Verificar se o trabalho foi gerado por IA usando plataformas como Turnitin (que adicionou essa função), GPTZero ou outras. Esse é talvez o uso mais problemático — e o que mais gera injustiças quando feito de forma acrítica.
Ter a IA gerar feedback e/ou nota diretamente. Um professor que copia o trabalho do aluno numa interface de IA e usa a resposta da ferramenta como feedback sem revisão crítica está substituindo, não apoiando, o julgamento docente. Esse é o uso mais problemático do ponto de vista ético.
O problema das ferramentas de detecção de IA
Esse ponto merece atenção especial porque gera consequências reais e injustas para alunos.
As ferramentas de detecção de IA não são confiáveis. Pesquisas sobre o desempenho desses detectores mostram taxas de falso positivo alarmantes — textos escritos por humanos que escreve de forma direta e estruturada, por não-nativos do idioma, por pessoas com perfil de escrita muito regular, são frequentemente classificados como “provavelmente gerados por IA”.
O problema é que alguns docentes usam esses detectores como prova, não como indício. Um resultado de “70% de probabilidade de ser gerado por IA” não é uma acusação sustentável — é um dado estatístico gerado por um modelo probabilístico com limitações conhecidas. Tratar isso como evidência de fraude é injusto e, dependendo do contexto, pode ter consequências graves para o aluno.
Isso não significa que o uso de IA pelos alunos sem declaração não seja um problema real. É. Mas o caminho para lidar com ele não é uma ferramenta de detecção usada como tribunal. É políticas claras, conversa direta e, quando necessário, avaliações complementares que demonstrem (ou não) o domínio real do conhecimento.
O que a ética acadêmica exige do docente
Existe uma assimetria que vale nomear: enquanto os programas estão desenvolvendo políticas para o uso de IA pelos alunos, raramente se discute de forma explícita o que é esperado dos docentes.
A ética acadêmica, de forma geral, estabelece alguns princípios que se aplicam ao uso de IA na avaliação, mesmo na ausência de políticas formais:
Transparência. Se você usa IA como parte do processo de avaliação, os alunos têm direito de saber. Não necessariamente os detalhes técnicos, mas ao menos que ferramentas externas foram utilizadas no processo de forma relevante.
Responsabilidade. O julgamento final sobre a produção de um aluno — nota, aprovação, reprovação, feedback qualificado — é responsabilidade do docente, não da ferramenta. Usar IA como muleta para não fazer esse julgamento compromete a integridade da avaliação.
Não prejudicar. Usar ferramentas de detecção de forma acrítica, atribuindo fraude sem evidências sólidas, pode causar dano real ao aluno. O princípio de não prejudicar — central na ética acadêmica — se aplica aqui.
Proporcionalidade. O nível de formalidade e as consequências da avaliação devem ser proporcionais ao processo. Uma avaliação que define aprovação ou reprovação num programa exige mais cuidado do que um feedback de processo.
O que os alunos de pós-graduação podem exigir (e perguntar)
Como aluno, você tem direito a entender como seu trabalho foi avaliado. Isso não significa que o professor é obrigado a detalhar cada ferramenta que usou — mas significa que um feedback opaco (“sua análise é rasa”) sem critérios claros é algo que você pode questionar.
Algumas perguntas legítimas quando você recebe uma avaliação:
“Quais foram os critérios usados para avaliar esse trabalho?” — Se não foram informados antes, vale pedir depois.
“Você poderia explicar o que viu de deficiente nessa parte?” — Feedback genérico não ajuda a melhorar. Feedback específico mostra que houve leitura real.
Essas perguntas não são confronto — são exercício do direito à avaliação justa que qualquer aluno tem.
A questão mais profunda: o que estamos avaliando
Por trás das questões técnicas sobre uso de IA na avaliação, existe uma questão pedagógica mais fundamental: o que queremos avaliar quando avaliamos produções acadêmicas?
Se o objetivo é verificar se o aluno consegue gerar texto academicamente adequado sobre um tema, então a IA interfere diretamente — porque o aluno pode produzir esse texto sem necessariamente ter desenvolvido o pensamento crítico e o domínio do conteúdo que o texto deveria demonstrar.
Se o objetivo é verificar se o aluno consegue pensar sobre um problema, conectar conceitos, construir argumento e defender posição — então a avaliação precisa de instrumentos que vão além da produção de texto. Que incluem defesa oral, análise em tempo real, demonstração de processo.
A chegada da IA está forçando essa conversa de forma mais urgente. E isso, mesmo com todos os problemas que traz, pode ser uma contribuição — ao exigir que repensemos o que de fato queremos medir quando avaliamos.
IA na avaliação: o que ainda não sabemos
Preciso ser honesta sobre os limites do que existe consolidado sobre esse tema: ainda há muito mais perguntas do que respostas.
Não sabemos quais configurações de uso de IA na avaliação produzem melhores resultados de aprendizagem. Não sabemos como os alunos respondem, no médio e longo prazo, a avaliações que incluem IA no processo. Não sabemos como as políticas que estão sendo construídas agora vão funcionar na prática em diferentes contextos.
O que sabemos é que ignorar o tema não é opção. A IA está sendo usada, nos dois lados da avaliação, com diferentes graus de consciência e transparência. A conversa que precisamos ter — nas disciplinas, nos programas, nas instituições — ainda está no começo. E enquanto ela acontece, tanto professores quanto alunos estão navegando um terreno que não tem mapa pronto.
O que temos são os princípios. Transparência, responsabilidade, proporcionalidade e compromisso com a formação real do pesquisador — não só com a certificação formal. Esses princípios valem dos dois lados da avaliação.