Universidades Criando Regras de IA em 2026: Chegou Tarde?
Muitas universidades brasileiras só agora criam políticas para uso de IA. Uma reflexão sobre o que essa demora revela sobre como a academia lida com mudanças.
Três anos depois, a academia acorda
Olha só: o ChatGPT foi lançado em novembro de 2022. Em semanas, estudantes do mundo inteiro já estavam usando para escrever trabalhos acadêmicos. Em meses, professores estavam percebendo isso em redações que não soavam como redações.
Estamos em 2026. E a maioria das universidades brasileiras ainda não tem uma política clara de uso de inteligência artificial.
Isso não é crítica irresponsável. É um fato que merece ser examinado — porque o que está por trás dele revela algo importante sobre como a academia lida com mudanças tecnológicas.
O que está acontecendo nas universidades
O panorama que se vê hoje nas universidades brasileiras é fragmentado.
Algumas instituições criaram grupos de trabalho ou comissões para elaborar diretrizes sobre IA. Algumas já publicaram documentos preliminares. Algumas têm orientações no regimento acadêmico que foram atualizadas para mencionar ferramentas de IA.
Mas na prática cotidiana — nas salas de aula, nas bancas, nas orientações — o que existe são abordagens individuais de cada professor. Um proíbe, o outro permite, o terceiro ignora o assunto. Um exige declaração de uso, o outro não sabe bem o que fazer com ela.
Estudantes navegam nessa inconsistência sem saber exatamente quais são as regras. E quando não há regras claras, as pessoas preenchem o vazio com interpretações próprias — nem sempre as mais cuidadosas.
Por que demorou tanto
Essa demora não é exclusividade brasileira. É padrão em boa parte das universidades do mundo. Mas algumas razões específicas valem ser nomeadas.
A velocidade da mudança foi sem precedentes. Ferramentas de IA generativa avançadas passaram de nicho de pesquisa para uso cotidiano massivo em menos de um ano. Processos deliberativos institucionais — comissões, câmaras, colegiados — não operam nessa velocidade. É uma tensão estrutural, não um defeito individual de alguma liderança universitária.
A academia tende ao ceticismo inicial. Há uma tradição legítima de não reagir impulsivamente a cada novidade tecnológica. Esperar para entender melhor antes de regular. O problema é que “esperar para entender melhor” virou “não regular enquanto o barco afunda”.
Faltou um evento-gatilho de grande escala. Em outros contextos, grandes escândalos de integridade acadêmica levam a reformas rápidas. O uso de IA na academia tem sido gradual o suficiente para não criar um momento de crise que force reação urgente. É o problema do sapo na água morna.
Havia — e ainda há — divisão real sobre o que fazer. Parte dos docentes quer proibir completamente. Parte quer integrar ao ensino. Parte não sabe ao certo. Quando não há consenso, as instituições tendem a adiar a decisão.
O custo real da omissão
Enquanto as políticas não chegam, algo acontece.
Estudantes que usam IA de forma irresponsável são avaliados com os mesmos critérios de quem não usa. Isso cria assimetria injusta.
Estudantes que tentam usar IA de forma responsável — declarando, verificando, assumindo autoria — não sabem se estão fazendo certo, porque não existe um referencial claro.
Professores que identificam uso de IA em trabalhos não têm respaldo institucional para agir. Cada caso é resolvido individualmente, sem consistência.
E a habilidade que realmente importa — desenvolver um posicionamento crítico próprio, argumentar, analisar — pode estar sendo atrofiada silenciosamente, sem que ninguém perceba antes do diagnóstico ser tardio demais.
Chegou tarde, mas não é tarde demais
Minha posição é que sim, a maioria das instituições demorou mais do que deveria para reagir. Isso teve custos reais que não serão recuperados.
Mas não concordo com a narrativa de que “o dano já está feito” ou de que “a academia perdeu o controle”. Essas narrativas levam à paralisia, não à ação.
O que as universidades precisam fazer agora não é recriar o passado pré-IA. É construir estruturas que formem pesquisadores capazes de trabalhar com IA com responsabilidade, criticidade e transparência.
Isso significa políticas. Mas também significa algo mais profundo: repensar o que significa produzir conhecimento quando ferramentas poderosas estão disponíveis. O que uma dissertação de mestrado está avaliando? Capacidade de produzir texto? Ou capacidade de pensar, analisar, argumentar?
Se a segunda resposta for a correta — e eu acredito que sim — então as avaliações acadêmicas precisam ser redesenhadas, não só as políticas de uso de IA.
O que eu espero ver nos próximos anos
Espero políticas que diferenciem contextos. Uso de IA numa disciplina de análise de dados é diferente de uso em uma avaliação de produção textual argumentativa. Políticas genéricas não funcionam.
Espero formação docente real. Não um tutorial de como detectar texto gerado por IA — isso é corrida armamentista que as instituições vão perder. Mas formação sobre como redesenhar avaliações que não sejam facilmente substituídas por IA, e sobre como discutir o tema com transparência com os estudantes.
Espero espaço para os estudantes aprenderem a usar IA bem — com método, com verificação, com declaração honesta. Não só políticas que proibam ou permitem, mas pedagogia sobre o uso responsável.
E espero que as universidades percebam que a questão não é tecnológica. É sobre o que significa formar um pesquisador no século XXI.
Essa conversa está apenas começando. E quanto mais rápido as instituições pararem de adiar, melhor para todos.
O que os estudantes podem fazer enquanto a política não vem
Para quem está no mestrado ou doutorado agora — ou vai entrar em breve — a pergunta prática é: o que fazer quando a instituição não tem regras claras?
Minha sugestão: adote você mesmo os padrões que você gostaria que sua instituição adotasse.
Declare o uso de IA no seu trabalho, mesmo que ninguém esteja exigindo. Descreva para que você usou, em que etapa, com qual nível de verificação posterior. Isso não é ingenuidade — é demonstração de maturidade intelectual.
Assuma responsabilidade pelo conteúdo que você produz, independente do quanto a IA ajudou. Se está com seu nome, é seu. Isso inclui verificar afirmações, checar fontes, garantir que o argumento é coerente.
E se tiver dúvida sobre o que é permitido numa disciplina específica, pergunte para o professor. A resposta pode ser vaga — muitos professores ainda estão formando sua própria posição sobre isso — mas a pergunta em si sinaliza que você está levando o assunto a sério.
O papel dos orientadores nesse cenário
Os orientadores de mestrado e doutorado estão numa posição especialmente delicada. Eles trabalham de perto com os estudantes, veem a produção de texto acontecer ao longo do tempo, e muitas vezes têm mais clareza do que os colegiados sobre o que está acontecendo.
Orientadores que abrem a conversa sobre IA diretamente — “como você está usando ferramentas de IA no seu processo de pesquisa?” — criam espaço para honestidade. Orientadores que ignoram o assunto criam incentivo para omissão.
Não é função do orientador policial. É função do orientador formar pesquisadores com integridade. E essa formação inclui, cada vez mais, como trabalhar com IA de forma responsável.
Isso deveria fazer parte das conversas regulares de orientação. Não como interrogatório — como desenvolvimento profissional.
Tarde para quê, afinal?
Volto à pergunta do título: chegou tarde?
Para alguns estudantes que passaram os últimos três anos navegando sem direção clara — sim, chegou tarde para eles.
Mas para a maioria dos que ainda estão na jornada acadêmica, ainda dá tempo de construir algo útil. Dá tempo de criar políticas que formem, não só que proíbam. Dá tempo de repensar avaliações, reformular orientações, abrir conversas que deveriam ter começado antes.
A academia não é ágil. Mas é resiliente. E quando decide mudar, muda com profundidade.
Torço para que essa mudança venha logo.