Posicionamento

87% dos Alunos Usam IA: e o Professor Finge que Não

A maioria dos estudantes já usa IA nas tarefas acadêmicas. A academia que não fala sobre isso não está protegendo a ciência, está evitando a conversa.

ia-na-educacao posicionamento academia inteligencia-artificial

O elefante na sala de aula

Vamos lá. Tem um elefante sentado no meio de todas as salas de aula do ensino superior. Ocupa espaço, faz barulho, consome os recursos. Todo mundo vê. Quase ninguém fala.

O elefante se chama IA generativa.

Levantamentos feitos em universidades de vários países mostram que uma proporção expressiva dos estudantes usa ferramentas de IA em seus trabalhos acadêmicos, sejam resumos, fichamentos, rascunhos de texto, estruturação de argumentos ou geração de referências. Os números variam, mas a direção é consistente: o uso é majoritário, não exceção.

A resposta da academia, na maior parte dos casos? Silêncio, regras vagas ou proibição declarada sem nenhum critério pedagógico.

Isso precisa de uma conversa mais honesta.

Proibir não é uma política

Algumas instituições responderam ao crescimento do uso de IA com proibição formal. “Uso de ferramentas de IA não é permitido na elaboração de trabalhos acadêmicos.” Ponto.

O problema é que essa frase, na ausência de qualquer conversa sobre o porquê, sobre o que constitui uso responsável, sobre o que se quer desenvolver nos estudantes quando se pede um trabalho escrito, é uma regra sem pedagogia.

E regras sem pedagogia têm uma característica bem conhecida: são descumpridas. Especialmente quando o estudante que as descumpre não entende qual princípio está em jogo.

Proibir não é uma política de integridade acadêmica. É uma resposta de curto prazo para uma questão que não vai desaparecer.

Se a preocupação é com aprendizagem real, com desenvolvimento de pensamento crítico, com autoria intelectual genuína, então a conversa precisa ser diferente. Precisa abordar o que queremos que o estudante desenvolva, por que a escrita importa para isso, e como as ferramentas de IA se encaixam ou não nesse processo.

A hipocrisia do silêncio

Há uma postura diferente da proibição, mas igualmente problemática: o silêncio estratégico.

O professor não proíbe, não permite, não fala. Entrega a tarefa, recebe o trabalho, avalia. O estudante que usou IA sem critério passa. O estudante que tentou escrever por conta própria, com dificuldade, às vezes fica para trás.

Isso não é neutralidade. É cumplicidade com uma situação que beneficia quem usa IA sem reflexão e prejudica quem está tentando desenvolver suas habilidades do jeito mais difícil.

O silêncio do professor nesse contexto funciona como um sinal: não importa o processo, importa o produto. E quando o produto pode ser gerado em cinco minutos com um prompt, o que estamos avaliando, afinal?

O que está em jogo não é a ferramenta

Quando a academia debate IA na educação, o debate costuma se fixar na ferramenta: ChatGPT é ou não é plágio? Devo ou não devo usar?

Mas a questão mais importante não é a ferramenta. É o que acontece com a capacidade do estudante de pensar, de estruturar argumentos, de escrever com voz própria, de revisar seu trabalho e reconhecer o que não está funcionando.

A escrita acadêmica não é apenas um meio de comunicar ideias prontas. É parte do processo de pensar. Quando você escreve um argumento, você o testa. Quando você precisa explicar o raciocínio de outro autor, você precisa ter entendido de verdade, não memorizado.

Se o estudante terceiriza essa parte para uma IA sem nenhum envolvimento crítico com o resultado, ele está abrindo mão de um processo de aprendizagem que não tem substituto.

Isso não é julgamento moral. É uma observação sobre o que a escrita faz pela formação intelectual.

E a IA que erra com confiança?

Outro problema que a academia prefere não discutir: ferramentas de IA generativa cometem erros com muita segurança.

Inventam referências. Citam autores que não escreveram aquilo. Afirmam como fato o que é especulação. Geram textos coerentes na superfície mas imprecisos no conteúdo.

Um estudante que não tem base teórica suficiente para avaliar o que a IA produziu vai entregar esses erros. E vai entregá-los com a mesma confiança com que a IA os gerou.

Isso é um problema de formação antes de ser um problema de integridade acadêmica. O estudante que não sabe que a IA errou não escolheu trapacear. Ele não tem os instrumentos para saber o que está recebendo.

Esse estudante precisa de formação sobre como funciona a IA, quais são seus limites, como verificar o que ela produz. Não de uma proibição que ele vai contornar na primeira oportunidade.

O que uma política responsável precisaria incluir

Não existe uma resposta única para como as instituições devem lidar com IA na educação. Cada área tem especificidades, cada tipo de avaliação tem propósitos diferentes, cada contexto institucional tem condições distintas.

Mas uma política que pretende ser responsável, e não apenas reativa, precisaria pelo menos abordar alguns pontos.

Primeiro: qual é o objetivo da avaliação? Se o objetivo é desenvolver escrita, raciocínio e voz do estudante, o processo importa tanto quanto o produto. Isso muda como se pensa o uso de IA.

Segundo: o que é transparência? Em muitos contextos, declarar o uso de IA não é necessariamente proibido. A questão é: o estudante sabe que pode declarar? Sabe como fazê-lo? Sabe o que deve ser declarado?

Terceiro: o que queremos que o estudante aprenda sobre IA? Não como funciona tecnicamente, mas como avaliar criticamente o que ela produz, quando faz sentido usá-la, onde estão os riscos.

Quarto: quem decide? As regras sobre IA na academia não podem ser formuladas só pelos gestores institucionais. Precisam envolver professores, estudantes e, idealmente, especialistas em aprendizagem e ética.

A Nathalia pensa assim, e você pode discordar

A minha posição é que a proibição sem pedagogia é ineficaz e, em alguns casos, contraproducente. Ela não desenvolve nos estudantes a capacidade de usar ferramentas com responsabilidade intelectual, que é o que vão precisar na vida profissional e acadêmica. Apenas ensina a esconder o que fazem.

Mas entendo que há posições diferentes. Há pesquisadores que argumentam que o processo de escrita é tão central para a aprendizagem que qualquer atalho prejudica o desenvolvimento. Há professores que viram tantos trabalhos sem substância que preferem o risco do excesso de restrição ao risco do oposto.

Essas posições são legítimas. O que não é legítimo é fingir que o problema não existe, ou que será resolvido por uma linha no regulamento acadêmico.

O elefante continua na sala. E ele vai ficando maior.

Se você quiser pensar sobre como usar IA com responsabilidade no seu próprio trabalho de pesquisa, o Método V.O.E. aborda esse tema de forma prática e ética. Também vale explorar os recursos disponíveis aqui.

O que os estudantes precisam aprender sobre IA que ninguém ensina

Existe uma lacuna enorme entre “usar IA” e “usar IA de forma crítica e responsável”. A maioria dos estudantes que usa essas ferramentas não recebeu nenhuma formação sobre como fazê-lo bem.

O que isso significaria na prática? Entender que o output da IA é uma hipótese, não uma verdade. Saber verificar referências antes de citá-las. Reconhecer quando o texto gerado está fluente mas vazio de argumento real. Saber declarar o uso de IA quando a instituição exige isso.

Nenhuma dessas competências aparece naturalmente. Precisam ser ensinadas. E para que sejam ensinadas, precisam ser reconhecidas como parte da formação, não como detalhe técnico periférico.

A academia que ignora essa necessidade não está protegendo a integridade do conhecimento. Está apenas garantindo que os estudantes aprendam a usar IA sem critério nenhum, porque ninguém se deu ao trabalho de ensinar os critérios.

Isso me parece mais sério do que qualquer discussão sobre proibição ou permissão.

Fechando com honestidade

O uso de IA no ensino superior é um fenômeno real, disseminado e crescente. Ele não vai recuar com proibições não acompanhadas de formação. Não vai se resolver com o silêncio de professores que preferem não confrontar a questão.

O que pode mudar é a qualidade da conversa que as instituições têm com seus estudantes sobre o assunto. E a qualidade da formação que oferecem para que os estudantes usem essas ferramentas com responsabilidade intelectual.

Isso exige que a academia pare de fingir que o problema não existe. Exige que os professores tenham condições institucionais para construir políticas pedagógicas consistentes. E exige honestidade sobre o que queremos que um estudante desenvolva quando fazemos uma avaliação.

A conversa é difícil. Mas ela já começou, com ou sem a academia.

Perguntas frequentes

Quantos estudantes universitários usam IA nas tarefas acadêmicas?
Pesquisas recentes indicam que entre 80% e 90% dos estudantes universitários já usaram alguma ferramenta de IA generativa para tarefas acadêmicas, como ChatGPT, Copilot ou similares. O uso varia por área e instituição, mas é amplamente disseminado mesmo em contextos onde o uso é proibido formalmente.
O que a academia deveria fazer sobre o uso de IA pelos estudantes?
Em vez de proibir sem critério ou ignorar o fenômeno, as instituições precisam construir políticas claras, contextualizadas por área e tipo de tarefa, que ensinem os estudantes a usar IA com responsabilidade intelectual. Isso inclui discutir autoria, transparência metodológica, avaliação crítica de outputs e limitações das ferramentas.
Usar IA na escrita acadêmica é desonestidade intelectual?
Depende de como é usada e se é declarada. Usar IA para organizar ideias, rever gramática ou mapear referências, com transparência, é diferente de apresentar um texto gerado por IA como produção própria sem nenhuma indicação. A desonestidade está na opacidade e na ausência de pensamento crítico, não na ferramenta em si.
<