IA e Integridade Acadêmica: O Debate Que Importa
O debate sobre IA e integridade acadêmica está mal formulado. O que as universidades precisam discutir de verdade, e por que proibir não resolve.
O Debate que Está Acontecendo no Lugar Errado
Vamos lá: a maior parte do debate sobre IA e integridade acadêmica que eu observo nas universidades está acontecendo no lugar errado. Em vez de discutir o que a universidade quer desenvolver nos estudantes e como avaliar isso de forma confiável em 2026, as discussões giram em torno de como detectar uso de IA e como punir quem usou.
Esse é um debate de gestão de risco, não um debate sobre educação. E enquanto as instituições estão ocupadas com detectores de IA e processos disciplinares, a pergunta mais importante fica sem resposta: o que significa integridade acadêmica quando as ferramentas que os estudantes têm acesso mudaram radicalmente?
Tenho uma posição clara sobre isso, e vou articulá-la aqui.
O Que a Integridade Acadêmica Sempre Foi
Antes de falar sobre IA, é útil recuperar o que a integridade acadêmica significa. Em termos simples: é o compromisso com a honestidade intelectual na produção e no uso do conhecimento. Isso inclui atribuir crédito a quem o trabalho pertence, não apresentar como seus trabalhos que não são, não fabricar resultados ou fontes.
Esses princípios não são burocracia. Eles existem porque a produção de conhecimento confiável depende de rastreabilidade, de poder identificar a origem de cada afirmação, de saber quem produziu o quê e em que condições. Quando esse sistema funciona, a ciência avança. Quando é corrompido, produz erros que se propagam.
A questão com IA não é que os princípios mudaram. A questão é que a linha entre o que é meu e o que é da ferramenta ficou menos óbvia do que era quando o único recurso era copiar de um livro ou de um colega.
Por Que Proibir Não Resolve
Quando a calculadora chegou, havia professores que queriam proibir o uso em provas. Quando o corretor ortográfico se tornou padrão, havia quem argumentasse que tornava os alunos piores em ortografia. O padrão é o mesmo: tecnologia nova, reação de proteção do que existia antes.
O problema com a proibição como resposta principal é que ela não ensina nada. Um estudante que não usa IA por medo de punição, mas nunca entendeu por que o processo de escrever a dissertação importa, ainda não aprendeu o que a universidade precisava ensinar.
A proibição pode ser uma medida temporária razoável enquanto as instituições desenvolvem políticas mais sofisticadas. Mas como posição permanente, ela é defensiva e pouco educativa. O mundo profissional para o qual esses estudantes estão se preparando vai usar IA. A questão é se eles vão saber usar de forma crítica e competente, ou se vão ter evitado o contato por quatro anos e chegado sem nenhuma familiaridade.
O Que as Universidades Precisam Discutir de Verdade
A pergunta que as universidades precisam fazer não é “como impedimos que os alunos usem IA”. É “o que queremos que nossos alunos sejam capazes de fazer, e como avaliamos isso de forma que não seja facilmente substituível por IA?”.
Isso muda radicalmente o design das avaliações. Trabalhos que consistem em descrever um conceito ou resumir um texto são facilmente realizados por IA. Avaliações que pedem análise de situação específica, conexão com experiência própria, defesa oral de um argumento, resolução de problema original, são muito mais difíceis de substituir.
Não estou dizendo que toda avaliação precisa ser oral ou que textos escritos deixaram de fazer sentido. Estou dizendo que o design das avaliações precisa ser repensado à luz do que as ferramentas atuais conseguem fazer. Isso é trabalho intelectual sério, e é o trabalho que as universidades deveriam estar fazendo prioritariamente.
A Responsabilidade dos Estudantes Nesse Contexto
Não sou ingênua sobre o papel dos estudantes nesse debate. Existe um conjunto de práticas que são claramente desonestas independentemente da política institucional: apresentar texto de IA como produção inteiramente própria sem declarar; usar IA para fraudar avaliações que explicitamente proíbem isso; produzir trabalho que não corresponde às capacidades reais e depois não conseguir defender ou aplicar o conteúdo.
Essas práticas são problemáticas não só por questões éticas abstratas, mas por razões práticas muito concretas. O conhecimento que não foi desenvolvido vai aparecer como lacuna quando precisar ser usado. Habilidades que foram puladas pela ferramenta precisam ser construídas em algum momento.
A integridade não é só sobre as regras da instituição. É sobre a consistência entre o que você declara saber e o que você realmente desenvolveu. E essa consistência, ou a falta dela, aparece.
Um Padrão Duplo Que Precisa Ser Nomeado
Existe um padrão duplo no debate sobre IA e academia que me incomoda e que raramente é nomeado: quando professores e pesquisadores usam IA para apoiar sua própria produção, isso é visto como adoção de tecnologia. Quando estudantes fazem o mesmo, é desonestidade.
Não estou dizendo que as situações são idênticas. Há diferenças relevantes: a avaliação de um estudante tem objetivos pedagógicos específicos que a produção de um pesquisador profissional não tem. Um professor usando IA para revisar um artigo já tem o conhecimento que a revisão está aprimorando. Um estudante usando IA para escrever um trabalho pode não ter esse conhecimento.
Mas o padrão duplo ainda existe, e ele é visível para os estudantes. Quando a instituição trata IA como ameaça para os alunos e como ferramenta para os professores, a incoerência corrói a autoridade moral do debate.
O Que Defendo Aqui
Minha posição é que o caminho mais honesto para as universidades é este: definir claramente o que querem que os estudantes aprendam, redesenhar as avaliações para que elas meçam esse aprendizado de forma que não seja facilmente substituível por ferramenta, e criar políticas de transparência sobre uso de IA que sejam realistas e educativas, não apenas punitivas.
Isso significa que haverá avaliações onde IA é proibida porque o objetivo é medir uma habilidade que precisa ser desenvolvida sem assistência. E haverá outras onde o uso de IA é permitido ou mesmo incentivado, porque o objetivo é medir a capacidade de usar ferramentas de forma crítica e competente.
Essa distinção é mais trabalhosa do que uma proibição geral. Também é mais honesta, mais educativa e mais alinhada com o mundo em que esses estudantes vão trabalhar.
O debate sobre IA e integridade acadêmica não vai desaparecer, porque a tecnologia não vai desaparecer. A questão é se as universidades vão liderar esse debate ou ser arrastadas por ele.
Como Isso Afeta Você Agora
Se você é estudante navegando esse cenário com incerteza, o conselho mais prático é este: desenvolva sua própria clareza sobre por que você está na universidade e o que quer construir. Essa clareza vai orientar suas escolhas sobre ferramentas melhor do que qualquer política institucional.
Se você está na universidade para desenvolver capacidade de análise, argumentação e produção de conhecimento, vai usar IA de um jeito. Se está na universidade só para obter o diploma, vai usar de outro. A honestidade consigo mesmo sobre esse ponto é o ponto de partida.
E se você é professor tentando navegar esse contexto: a conversa mais produtiva que pode ter com seus alunos não é sobre o que vai acontecer se usarem IA indevidamente. É sobre o que eles vão perder se delegarem para a ferramenta o trabalho de pensar.
Esse é o debate que vale a pena ter.
O Papel das Associações e Sociedades Científicas
Uma dimensão do debate que pouco aparece nas discussões institucionais é o papel das associações científicas e dos periódicos acadêmicos na definição de padrões sobre uso de IA.
Periódicos como Nature e Science publicaram orientações sobre o uso de IA na produção de artigos, deixando claro que ferramentas de IA não podem ser listadas como autoras, mas que o uso precisa ser declarado na seção de métodos. Essa posição, adotada por publicações de peso, começa a criar um padrão de transparência que vai se propagando.
No Brasil, as principais associações científicas estão em processo de discussão sobre o tema. Algumas áreas têm movido esse debate com mais urgência do que outras, especialmente aquelas onde a produção textual é central, como as Ciências Humanas e a área de Letras. O resultado prático é que a norma de transparência, declarar o uso e como ele aconteceu, está se tornando o padrão esperado na produção científica séria.
Isso importa para estudantes porque os padrões que vão encontrar na vida profissional como pesquisadores já estão sendo definidos. Aprender a navegar essa questão de forma reflexiva agora é parte da formação, não um detalhe menor.