O que as universidades brasileiras dizem sobre IA na pós-graduação
Um panorama do que as principais universidades brasileiras estão regulamentando sobre uso de IA na pós-graduação e o que isso muda para quem pesquisa agora.
Um mapa em construção
Vamos lá. Se você tentou encontrar “a política de IA da sua universidade” e voltou de mãos vazias ou com informações contraditórias, você não está sozinha. A regulamentação sobre uso de IA nas universidades brasileiras está sendo construída em tempo real, com velocidades muito diferentes entre instituições.
Algumas universidades federais e estaduais publicaram documentos formais. Outras ainda estão em fase de discussão em câmaras departamentais. Muitas simplesmente ainda não têm nada publicado, o que coloca os pesquisadores numa posição incômoda: usar IA sem regulamentação clara, sabendo que a regulamentação vai chegar.
O que este texto faz é desenhar esse mapa com o que está disponível publicamente, e ajudar você a navegar o que existe no seu contexto.
O que as maiores universidades estão fazendo
O movimento de regulamentação de IA no ensino superior brasileiro se acelerou depois de 2024, quando ficou claro que ferramentas como ChatGPT não eram uma novidade passageira e que trabalhos acadêmicos gerados ou fortemente assistidos por IA estavam chegando às bancas sem nenhum critério estabelecido.
Universidades como USP, UNICAMP, UFRJ e UFMG estiveram entre as primeiras a discutir formalmente o tema nas instâncias colegiadas. O que cada uma definiu varia, mas há pontos em comum que emergem desses processos.
Transparência obrigatória. Em praticamente todos os documentos publicados, a exigência central é a declaração do uso de IA: o que foi usado, quando, para quê. Nenhuma das regulamentações conhecidas proíbe o uso em si; todas exigem que ele seja visível.
IA não pode ser autora. Isso é consenso. Nenhuma universidade brasileira reconhece ferramentas de IA como autoras de trabalhos acadêmicos. A responsabilidade intelectual permanece com o pesquisador.
Restrições por etapa. Algumas regulamentações distinguem etapas em que o uso é aceito (revisão linguística, organização de notas, busca de literatura) daquelas onde há restrições mais severas (geração de dados, escrita de resultados, análise sem supervisão humana rigorosa).
A variação entre programas dentro da mesma universidade
Um ponto que vale notar: mesmo dentro de uma mesma universidade, a regulamentação pode variar entre programas.
Programas de exatas e engenharias, onde o uso de ferramentas computacionais é há muito estabelecido na prática científica, às vezes têm abordagens mais permissivas sobre o uso de IA em análise de dados, desde que declarado e metodologicamente justificado.
Programas de humanas, letras e ciências sociais, onde a escrita é o próprio produto do processo intelectual, costumam ter posições mais criteriosas sobre o papel da IA na construção do texto.
Isso significa que a política da universidade pode ser diferente da política do seu programa. Se o seu programa tem documento próprio, ele é o mais relevante para você.
O que fazer quando o programa não tem política clara
Quando não há norma estabelecida, alguns pesquisadores interpretam isso como ausência de restrição. Essa interpretação tem risco.
A ausência de política específica não significa que o uso de IA seja ilimitado ou que a integridade acadêmica não se aplica. Significa que as regras gerais de integridade acadêmica da instituição se aplicam, e que o uso de ferramentas não declaradas pode ser interpretado como falta de transparência caso questionado.
Uma postura mais segura é adotar o princípio de transparência independente de norma: declarar o que foi usado, especificar a finalidade, afirmar que os resultados foram verificados. Isso protege o pesquisador de questionamentos futuros e, em muitos casos, é bem visto pelos orientadores como evidência de maturidade acadêmica.
A CAPES e o padrão nacional
A CAPES tem papel central no sistema de pós-graduação brasileiro porque é ela quem avalia os programas. Suas orientações sobre integridade científica, mesmo quando não têm força de norma institucional, influenciam o que os programas consideram aceitável.
Os documentos mais recentes da CAPES sobre integridade na pesquisa mencionam IA no contexto de integridade acadêmica e autoria. O caminho que a agência está percorrendo é de incorporar a questão da IA nas diretrizes de integridade existentes, sem criar uma regulamentação separada para o tema.
Isso significa que pesquisadores vinculados a programas avaliados pela CAPES, que é praticamente toda pós-graduação stricto sensu no Brasil, já estão dentro de um contexto onde o uso não declarado ou irresponsável de IA pode ser tratado como violação de integridade.
O que está sendo debatido agora
Além das políticas já publicadas, há debates em curso que vão moldar o que vem a seguir.
Uma discussão recorrente é sobre os limites da autoria. Quando um texto foi escrito com auxílio significativo de IA, em que medida é razoável atribuir autoria plena ao pesquisador? Como essa questão se relaciona com a declaração de contribuição de cada autor em trabalhos multipesquisadores?
Outra discussão é sobre avaliação: como verificar, sem paranoia, se um trabalho acadêmico usa IA de forma que viola os critérios estabelecidos? Os detectores de texto gerado por IA têm taxa de erro relevante e já causaram injustiças documentadas quando usados de forma irrefletida.
Essas questões ainda não têm respostas consolidadas. Os pesquisadores que estão produzindo agora estão navegando um momento de transição, onde as regras estão sendo escritas ao mesmo tempo em que os trabalhos são desenvolvidos.
O que você pode fazer hoje
Independente do estágio de regulamentação da sua universidade:
Procure ativamente se há norma publicada pelo seu programa ou pela sua universidade. Se não encontrar, pergunte à coordenação.
Adote o princípio de transparência como padrão pessoal: documente o uso de IA conforme ele acontece, especificando ferramenta, data e finalidade.
Converse com seu orientador sobre como o programa está tratando o tema. Essa conversa abre espaço para orientação específica sobre o que é aceito no seu contexto.
Acompanhe as atualizações. A regulamentação está em movimento, e o que vale hoje pode ser atualizado em seis meses.
O cenário é de fluxo, não de caos. Pesquisadores que entendem o princípio que fundamenta as regulamentações, transparência e responsabilidade intelectual humana, conseguem navegar bem mesmo em contextos onde as regras específicas ainda estão sendo definidas.
O que os comitês de ética estão debatendo
Uma dimensão da regulamentação de IA que raramente aparece nas conversas entre pesquisadores de mestrado e doutorado é o papel dos Comitês de Ética em Pesquisa (CEPs) nessa questão.
Os CEPs avaliam protocolos de pesquisa que envolvem seres humanos, garantindo que os princípios de bioética sejam respeitados. Com a chegada da IA ao processo de pesquisa, novas questões entraram nessa conversa: o uso de ferramentas de IA para análise de dados de participantes precisa constar no protocolo? Quando dados coletados de seres humanos passam por processamento de IA, há implicações para o consentimento informado?
Essas perguntas ainda estão sendo respondidas de formas diferentes pelos CEPs e pela Plataforma Brasil. Se sua pesquisa envolve dados de participantes humanos e você usou ou pretende usar IA na análise, vale incluir isso no protocolo de ética com descrição clara da ferramenta, da finalidade e dos dados tratados.
O que os orientadores precisam e não sabem como pedir
Uma conversa que acontece com frequência nos bastidores dos programas de pós-graduação: orientadores que não sabem como lidar com o uso de IA pelos seus orientandos, não porque sejam contra, mas porque eles próprios não têm clareza sobre o que é adequado.
Isso cria uma situação paradoxal: o pesquisador espera que o orientador diga o que pode ou não pode, o orientador espera que o programa dê uma norma, o programa espera que a universidade decida, a universidade espera orientação da CAPES. Enquanto todos esperam, a pesquisa acontece.
O pesquisador que toma a iniciativa de trazer o tema para a reunião de orientação, apresentando como usou a ferramenta e perguntando se a abordagem está adequada ao que o programa espera, costuma sair com mais clareza do que quem aguarda uma norma que talvez demore a chegar.
Periódicos brasileiros e a lacuna entre pesquisa e publicação
Outro aspecto do mapa que está em construção: os periódicos científicos brasileiros, especialmente os indexados na SciELO, estão atualizando suas instruções ao autor para incluir políticas sobre IA.
Mas há uma defasagem de tempo entre o momento em que a pesquisa é realizada e o momento em que ela é submetida para publicação. Uma pesquisa realizada com determinado uso de IA em 2026 pode ser submetida em 2027 ou 2028, quando a política do periódico para esse uso já pode ser diferente.
Isso reforça a importância de documentar o uso de IA com detalhes desde o início, incluindo datas e versões das ferramentas utilizadas. Quando a publicação acontecer, você vai ter as informações necessárias para a declaração exigida pelo periódico, independente de quando isso ocorrer.
O princípio que organiza tudo o que está em construção
No meio de toda essa variação entre instituições, programas e períodos, um princípio emerge de forma consistente em todos os documentos publicados e em todas as discussões em andamento: a responsabilidade intelectual da pesquisa é humana.
Ferramentas de IA podem apoiar, agilizar, organizar, sugerir. O pesquisador decide, verifica, valida, interpreta, assume responsabilidade pelo que está escrito.
Quando esse princípio guia as escolhas sobre uso de IA, a maioria das decisões sobre o que declarar, onde declarar e como declara se torna mais clara. Não porque há uma regra para cada situação, mas porque o ra