IA & Ética

IA na Sala de Aula da Pós-Graduação: E os Docentes?

Como os professores da pós-graduação estão lidando com a IA nas aulas? O que muda no ensino, na avaliação e nas discussões éticas dentro dos programas.

inteligencia-artificial docencia-pos-graduacao ia-etica ensino-superior pos-graduacao

A IA chegou na sala de aula — e os professores estão construindo a resposta enquanto andam

Olha só: enquanto os pós-graduandos debatem entre si como usar (ou não) IA nas pesquisas, os docentes estão do outro lado da equação, enfrentando um conjunto próprio de questões que raramente aparecem nessa conversa.

O que muda no ensino quando os alunos podem gerar texto fluente sobre qualquer tema em segundos? Como avaliar aprendizagem em aulas onde a IA está acessível a todos? Qual o papel do docente numa sala de pós-graduação em que parte do conhecimento técnico já pode ser delegada a ferramentas?

Essas perguntas não têm resposta pronta. E isso, em si, já é uma informação importante.

O que está acontecendo nas salas de aula da pós agora

A realidade atual nas pós-graduações brasileiras é fragmentada. Não existe uma política nacional unificada — cada universidade, cada programa e frequentemente cada professor está lidando com a IA de forma independente.

Alguns docentes proibiram o uso em suas disciplinas. Outros adotaram explicitamente. A maioria está numa zona cinzenta: não proíbe formalmente, mas não sabe exatamente o que está acontecendo e não tem tempo de investigar.

Essa falta de consenso não é necessariamente negativa. Em campos que estão se construindo enquanto existem — e o campo das implicações pedagógicas da IA é um desses — a diversidade de abordagens gera aprendizado coletivo. Daqui a cinco anos, vamos olhar para esse período como o momento em que as universidades estavam, de forma desorganizada mas genuína, tentando entender o que fazer.

O problema é que, enquanto esse processo acontece, os pós-graduandos estão no meio, sem orientação clara.

As três posições que os docentes costumam ocupar

Observando as discussões em fóruns acadêmicos, grupos de pesquisa em educação superior e depoimentos de professores, três posições básicas emergem:

Os resistentes. Professores que veem a IA como ameaça à autenticidade do aprendizado e à qualidade da produção acadêmica. Costumam proibir ou restringir fortemente o uso, às vezes com argumentos bem fundamentados sobre o risco de superficialidade no aprendizado, às vezes com resistência mais defensiva à mudança.

Os adotantes entusiastas. Professores que incorporaram a IA nas suas práticas de ensino — pedem que os alunos usem ferramentas para análise, discutem os resultados em sala, ensinam a avaliar criticamente o que a IA produz. Tendem a ser mais presentes em áreas de computação, comunicação e gestão, mas aparecem em outras áreas também.

A maioria silenciosa. Professores que não proibiram, não adotaram ativamente e estão observando. Muitos admitem, em conversas privadas, que não sabem bem o que fazer. Que as diretrizes institucionais são vagas. Que o tema muda tão rápido que qualquer posição formal pode estar desatualizada em seis meses.

Faz sentido? Não existe resposta certa aqui. Cada posição reflete valores pedagógicos legítimos — e também ansiedades reais sobre um terreno que não está consolidado.

O que muda na avaliação

Esse é o ponto mais prático — e onde as mudanças já estão acontecendo de forma mais visível.

Avaliações baseadas em produção de texto escrito estão sendo repensadas em muitos contextos. Quando qualquer aluno pode entregar um ensaio fluente sobre qualquer tema sem necessariamente tê-lo construído intelectualmente, o instrumento perde parte da sua validade como ferramenta de verificação de aprendizagem.

Isso não é uma crise da avaliação — é uma revelação de algo que educadores progressistas já diziam há muito tempo: avaliar um produto final sem acesso ao processo é uma forma incompleta de verificar aprendizagem.

As alternativas que estão emergindo incluem:

Defesa oral das ideias. Se você escreveu um texto, você precisa explicar em voz alta o raciocínio por trás dele, responder perguntas sobre as escolhas, defender a argumentação. Isso é difícil de terceirizar para a IA.

Portfólios com registro de processo. Trabalhos que incluem rascunhos, registros de revisão, notas de pesquisa — que mostram como o pensamento se desenvolveu, não apenas onde chegou.

Análise crítica em tempo real. Seminários onde o aluno precisa analisar um texto ou problema na hora, sem acesso a ferramentas externas.

Projetos longitudinais com acompanhamento. Onde o docente acompanha o desenvolvimento ao longo do semestre e pode notar quando o trabalho não corresponde ao que viu nas conversas com o aluno.

Nenhum desses instrumentos é perfeito. Mas a busca por eles está produzindo avaliações mais ricas do que os formatos tradicionais em muitos casos.

O docente como modelo de uso crítico

Aqui está uma dimensão que raramente é nomeada: o docente da pós-graduação, quando usa IA na sua própria prática de pesquisa ou ensino, está modelando comportamentos para os pós-graduandos — queiram ou não.

Um professor que usa IA para gerar slides, sem declarar, e depois proíbe que os alunos usem IA nas avaliações está gerando uma inconsistência ética que os alunos percebem. Um professor que usa IA criticamente, declara o uso e discute as limitações do que produziu com a ferramenta, está ensinando algo sobre postura ética com a tecnologia que vai além do conteúdo da disciplina.

A questão não é se o docente usa IA — a questão é se o uso é consciente, declarado e coerente com o que ele espera dos alunos.

O que a IA não muda na sala de aula da pós

Algumas coisas permanecem. E vale nomear isso quando a tendência é só falar no que muda.

A discussão em profundidade — onde um grupo de pesquisadores discute um artigo, questiona pressupostos, conecta com suas próprias pesquisas — não é replicada por IA. A ferramenta pode resumir o artigo. Não consegue substituir o momento em que uma aluna percebe, no meio do debate, que sua pesquisa tem um pressuposto não examinado.

O conhecimento tácito que um professor transmite — as intuições sobre o campo, as histórias dos bastidores da ciência, o que não está nos artigos — também não está disponível em nenhuma ferramenta.

E a relação humana de formação — onde o docente vê potencial num aluno e o encoraja, onde uma orientação bem dada muda a trajetória de uma pessoa — essa dimensão permanece inteiramente humana.

O que os pós-graduandos podem fazer com isso

Entender onde os docentes estão ajuda a navegar melhor a sala de aula nesse período de transição.

Quando um professor não tem política clara sobre IA, perguntar diretamente é mais inteligente do que adivinhar. “Professor, qual é sua posição sobre o uso de IA nessa disciplina?” é uma pergunta legítima que demonstra responsabilidade, não ingenuidade.

Quando um professor resiste à IA, entender por quê — sem precisar concordar — ajuda a calibrar o que ele está avaliando e o que ele espera ver no seu trabalho.

E quando um professor incorpora a IA nas aulas, participar ativamente das discussões sobre limites e usos é uma oportunidade de aprendizado que vai além do conteúdo da disciplina — é formação sobre como pesquisadores sérios navegam ferramentas novas com critério.

A IA está na sala de aula da pós-graduação. Professores e alunos estão, juntos e de formas distintas, aprendendo o que fazer com ela.

Perguntas frequentes

Os professores da pós-graduação podem proibir o uso de IA nas disciplinas?
Sim, e alguns fazem isso. Professores têm autonomia pedagógica para definir os critérios das suas disciplinas, incluindo restrições ao uso de ferramentas de IA. No entanto, a tendência dominante nas discussões acadêmicas é criar políticas de uso responsável em vez de proibições, pois a proibição é difícil de verificar e pode ser contraproducente na formação de pesquisadores que vão precisar lidar com IA no mundo profissional.
Como a IA está mudando a forma de avaliar alunos na pós-graduação?
A avaliação está sendo repensada em muitos programas. Avaliações baseadas em produção de texto estão migrando para formatos que exigem defesa oral das ideias, análise crítica em tempo real, apresentações de seminários ou trabalhos que demonstram processo — não apenas produto final. A presença da IA está forçando uma discussão que muitos educadores reconhecem como necessária há tempos.
O que os docentes esperam que os pós-graduandos saibam sobre IA?
Isso varia muito por área e por professor. De forma geral, o que se espera é uso crítico e declarado: saber distinguir onde a IA auxilia e onde ela pode comprometer a integridade do trabalho, entender as limitações das ferramentas (como alucinação de referências) e ser transparente sobre o uso. Competência técnica com as ferramentas é considerada um bônus, não um requisito.
<