Posicionamento

Formação em IA para Professores: Por Que É Urgente

Por que a formação em IA para professores universitários é urgente e o que ninguém está fazendo ainda. Uma posição clara sobre o que está em jogo na educação superior.

inteligencia-artificial docencia educacao-superior posicionamento formacao-docente

O elefante na sala de aula

Vamos lá: há uma situação que se tornou padrão nas universidades brasileiras e que a maioria das instituições ainda não teve a honestidade de enfrentar de frente.

Estudantes usam IA para escrever trabalhos. Professores sabem disso. E a maioria dos professores não sabe exatamente o que fazer com essa informação porque nunca tiveram formação nenhuma sobre como essas ferramentas funcionam.

O resultado é uma combinação de proibições vagas, avaliações que não conseguem distinguir autoria real de texto gerado, e sensação geral de que algo está errado mas ninguém sabe exatamente o que.

Essa situação não vai melhorar por si mesma. E minha posição é clara: a responsabilidade de resolver isso não é só dos estudantes e nem só das políticas institucionais. É, em grande parte, dos professores que precisam se apropriar do tema com a mesma seriedade com que se apropriam do conteúdo de sua área.

O que significa “formação em IA” para um professor universitário

Preciso ser precisa sobre o que estou propondo, porque “formação em IA” pode significar coisas muito diferentes dependendo de quem fala.

Não estou propondo que professores aprendam a programar modelos de linguagem. Não estou propondo que se tornem especialistas em ética da IA ou em machine learning. Não estou propondo cursos de 200 horas em ciência de dados.

O que estou propondo é algo mais simples e mais urgente: que os professores universitários usem as ferramentas que os seus alunos estão usando, entendam o que elas fazem, e desenvolvam capacidade crítica para avaliar quando e como elas foram utilizadas.

Isso é possível em poucos dias de experiência prática. Não exige background técnico. Exige abertura para experimentar.

Por que a maioria dos professores ainda não fez isso

Existem razões reais para a resistência, e é importante nomeá-las sem julgamento.

Tempo é uma delas. Professores universitários, especialmente em universidades federais, têm carga de orientandos, disciplinas, pesquisa, extensão, burocracia institucional e exigências de publicação. Adicionar “aprender IA” na lista parece mais uma demanda num calendário já superlotado.

Identidade profissional é outra. Muitos professores construíram sua expertise ao longo de décadas em formas específicas de produção de conhecimento. A IA chega como disrupção num campo onde a autoridade foi construída através de métodos conhecidos. Aprender a usar IA pode parecer uma validação de algo que ameaça o valor do seu próprio trabalho.

Desconfiança é a terceira. Há razões legítimas para desconfiar das narrativas de que “a IA vai transformar tudo”. Parte do entusiasmo em torno de IA é hype corporativo, não evidência. Professores experientes já viram promessas tecnológicas que não se concretizaram.

Essas razões são reais. Mas nenhuma delas muda o fato de que a situação está acontecendo nas salas de aula agora, independentemente de qual é a posição do professor sobre o assunto.

O que está acontecendo enquanto a formação não acontece

Enquanto professores não se formam, a situação na sala de aula se deteriora numa direção específica.

Estudantes que usam IA com discernimento crítico ficam em desvantagem porque suas produções, mesmo de qualidade, são avaliadas com suspeita generalizada. Estudantes que usam IA de forma irresponsável ficam em vantagem porque o professor não tem instrumentos para distinguir.

Políticas institucionais de proibição são aplicadas de forma inconsistente, criando injustiças. Um professor proíbe, outro ignora, e o estudante fica sem orientação clara sobre o que é esperado.

A avaliação acadêmica perde credibilidade como instrumento de certificação de competência real. Isso é um problema sério que vai além da disciplina específica.

Não estou sendo catastrofista. Estou descrevendo o que já está acontecendo.

O que formação em IA para professores precisa incluir

Se a sua instituição vai criar um programa de formação, ou se você vai buscar sua formação de forma independente, aqui estão os elementos que considero indispensáveis.

Uso prático das ferramentas: não é possível avaliar o que os alunos estão fazendo sem ter usado as mesmas ferramentas. Isso significa usar ChatGPT, Claude, Gemini ou ferramentas similares para tarefas reais do trabalho docente: preparar materiais, dar feedback em textos, organizar ideias para aula.

Compreensão dos limites: as ferramentas alucinam. Inventam referências. Produzem texto plausível mas semanticamente vazio. Tendem a um estilo reconhecível. Saber isso muda como você lê um trabalho de estudante.

Critérios de avaliação que resistem à IA: não se trata de detectar IA (que é tecnicamente muito difícil), mas de criar avaliações onde a autoria real importa: defesas orais, processos documentados, portfólios, avaliações situadas no contexto específico do estudante.

Políticas claras: professores que têm posição clara sobre o que é e não é permitido nas suas disciplinas ajudam os estudantes honestos e criam um padrão verificável. Vagueza gera ambiguidade que favorece o oportunismo.

Discussão ética com os estudantes: não proibição, mas conversa. O que é autoria? O que a IA pode e não pode fazer? Qual é a responsabilidade do estudante pelo que assina? Essas discussões têm valor pedagógico independentemente do conteúdo da disciplina.

Minha posição sobre a urgência

Vou dizer diretamente: acho que a formação em IA para professores universitários é urgente porque o custo da inação está sendo pago pelos estudantes.

Não pelos estudantes que usam IA de forma irresponsável. Esses estão se beneficiando do vácuo de política. Pelos estudantes que estão tentando fazer coisas com integridade num ambiente onde as regras não são claras e a avaliação não é justa.

Professores que continuam avaliando trabalhos escritos com os mesmos critérios de 2019, sem ajustar para a realidade de 2026, não estão sendo rigorosos. Estão sendo ingênuos.

E instituições que esperam que o problema se resolva sozinho ou que delegam a resolução só para as políticas de integridade acadêmica estão transferindo para os estudantes uma responsabilidade que é, em parte, da docência.

Isso não é uma posição confortável de tomar. Mas é a posição que os dados da realidade da sala de aula sustentam.

Como começar, concretamente

Se você é professor e reconhece que precisa aprender mais sobre IA, aqui está um caminho de entrada que funciona.

Primeiro, use uma ferramenta por trinta dias em tarefas docentes simples. Prepare um plano de aula. Dê feedback inicial num rascunho de orientando. Busque referências para uma disciplina nova. Você vai descobrir, na prática, o que funciona e o que não funciona.

Segundo, leia pelo menos dois textos acadêmicos recentes sobre uso de IA na educação superior. Há produção crescente em periódicos de educação sobre isso, com perspectivas mais nuançadas do que o que aparece na mídia.

Terceiro, converse com colegas da sua instituição que já estão pensando sobre isso. A troca de experiências práticas entre pares tem muito mais tração do que qualquer formação institucional genérica.

Quarto, revise pelo menos uma avaliação da sua disciplina com o seguinte critério: essa avaliação exigiria autoria genuína mesmo se o estudante tivesse acesso total a ferramentas de IA? Se a resposta for não, o que mudaria?

A formação em IA não é um curso que você faz uma vez e pronto. É um processo de atualização contínua, da mesma forma que a atualização no conteúdo da sua área.

Para mais perspectivas sobre o papel da IA na academia e na pesquisa, continue acompanhando o blog. Tem muito mais por vir sobre este tema.

O que instituições que estão avançando já fazem diferente

Para colocar em perspectiva o que é possível: algumas instituições de ensino superior já estão se movendo nessa direção com resultados concretos.

O padrão que aparece nas que estão indo bem não é um curso obrigatório de 40 horas sobre ética de IA. É algo mais modesto e mais eficaz: conversas estruturadas entre pares, onde professores que já usam as ferramentas compartilham com colegas o que aprenderam na prática. Grupos pequenos, encontros regulares, sem formalidade excessiva.

O segundo elemento que aparece nas iniciativas que funcionam é a revisão coletiva de instrumentos de avaliação. Não uma política top-down que decide o que é permitido ou proibido em todas as disciplinas, mas professores de um mesmo departamento sentados juntos olhando para as suas provas e trabalhos e perguntando: “isso ainda avalia o que queremos avaliar?”

Esse processo de revisão coletiva tem um efeito secundário importante: obriga os professores a articular o que exatamente querem que o estudante demonstre. E quando você precisa articular isso com clareza suficiente para resistir ao uso de IA, você está fazendo a pergunta pedagógica fundamental que qualquer boa avaliação deveria fazer.

A formação não precisa ser sofisticada para ser eficaz. Precisa ser honesta e prática.

O que a omissão custa

Termino com um ponto que é desconfortável mas necessário.

A omissão dos professores nessa discussão tem um custo que vai além da sala de aula. Ela está moldando a concepção que uma geração inteira de pesquisadores terá sobre o que é autoria, o que é integridade acadêmica, e o que significa produzir conhecimento com honestidade.

Se essa concepção for moldada num ambiente de ambiguidade institucional, onde ninguém sabe exatamente o que é permitido e as regras variam por professor, por disciplina, por semestre, o resultado não vai ser estudantes mais éticos. Vai ser estudantes que aprenderam que ética acadêmica é negociável conforme o contexto.

Essa é uma consequência que extrapola qualquer discussão sobre IA específica. É uma questão de qual cultura acadêmica estamos construindo.

Professores têm papel nessa construção. A formação em IA não é um detalhe técnico: é parte de como a academia vai responder a uma mudança que já está em curso.

Se quiser aprofundar a reflexão sobre ética, autoria e IA no contexto da pesquisa e da docência, a seção sobre IA e ética do blog tem muito mais conteúdo sobre isso.

Perguntas frequentes

Professores universitários precisam aprender a usar IA?
Sim. Com o uso de IA por estudantes se tornando generalizado, professores que não compreendem essas ferramentas ficam em desvantagem para avaliar a autoria dos trabalhos, adaptar métodos de ensino e orientar o uso ético. A formação não precisa ser técnica, mas precisa incluir compreensão prática das ferramentas e seus limites.
Quais são os riscos de professores não se formarem em IA?
O risco principal é a perda de capacidade avaliativa: professor que não sabe o que a IA faz não consegue avaliar se o trabalho do estudante tem autoria genuína. Além disso, proibições de IA sem política clara criam ambiguidade que prejudica estudantes honestos e protege os desonestos.
Como começar a formação em IA sendo professor sem background técnico?
O ponto de entrada mais eficiente é o uso prático das ferramentas mais comuns: use ChatGPT, Claude ou Gemini para tarefas simples do seu dia a dia docente. Leia material sobre uso ético de IA na educação superior. Converse com colegas que já estão usando. A formação técnica profunda não é necessária: o que importa é compreender o que as ferramentas fazem e não fazem.
<