IA para Pesquisa em Direitos Humanos e Sociais
Como usar inteligência artificial de forma ética na pesquisa em direitos humanos e ciências sociais: possibilidades reais e limites necessários.
Quando a ferramenta encontra o campo mais delicado
Olha só: direitos humanos é uma das áreas onde a pesquisa mais importa — e onde os erros mais doem. Estamos falando de pesquisas sobre violência, desigualdade, migração forçada, discriminação, tortura, pobreza estrutural. Dados que carregam histórias reais de pessoas reais.
A pergunta que toda pesquisadora nessa área vai fazer, cedo ou tarde, é: posso usar IA aqui? Faz sentido usar ferramentas automatizadas para estudar o que há de mais humano?
A resposta honesta é: depende de como você usa.
Neste post quero conversar sobre as possibilidades concretas da IA na pesquisa em direitos humanos e ciências sociais, os limites que não dá pra ignorar, e como o Método V.O.E. pode ajudar a navegar essa tensão sem perder o rigor ético.
O que a IA faz bem nesse campo
Vamos começar pelo que funciona — e funciona bem.
Organização de grandes volumes de dados documentais. Pesquisas em direitos humanos frequentemente lidam com relatórios extensos de organismos internacionais (ONU, Anistia Internacional, Human Rights Watch), jurisprudências, legislação comparada. A IA é competente para categorizar, extrair trechos relevantes e gerar resumos iniciais desse material.
Isso não é análise — é organização. E organização bem feita libera sua energia para o que realmente exige julgamento intelectual.
Transcrição de entrevistas. Quem faz pesquisa qualitativa sabe o tempo que se perde transcrevendo. Ferramentas como Whisper (OpenAI) e Otter.ai reduziram esse tempo de forma significativa. Para entrevistas em português, a qualidade melhorou muito nos últimos anos. Você ainda precisa revisar — especialmente em entrevistas com sotaques regionais fortes ou em contextos emocionais onde pausas e hesitações têm significado — mas o trabalho braçal diminui.
Análise de padrões em dados secundários. Se você trabalha com dados já existentes (registros administrativos, bancos de dados de violações, dados do sistema de justiça), a IA pode identificar padrões que seriam invisíveis em análises manuais. Isso tem sido usado em pesquisas sobre subnotificação de violência doméstica, concentração de mortes em abordagens policiais por raça e região, padrões de negação de direitos em sistemas de proteção social.
Revisão de literatura em escala. Em um campo com produção crescente, ferramentas como Elicit e Consensus ajudam a mapear o que já foi produzido sobre um tema. Útil especialmente no início da pesquisa.
Onde os limites aparecem — e por quê importam
Agora o que não funciona, ou funciona mal.
IA não interpreta contexto social. Uma ferramenta de análise de sentimentos vai marcar um relato de tortura como “negativo”. Mas ela não consegue capturar a diferença entre um sobrevivente que narra com indignação política e outro que narra com dissociação. Essas nuances importam para a análise e para o cuidado com o participante.
Modelos foram treinados em dados enviesados. LLMs (grandes modelos de linguagem) aprenderam com textos que refletem os preconceitos da produção textual global — que é majoritariamente do Norte Global, em inglês, e de perspectivas dominantes. Pedir que uma IA analise discursos sobre povos indígenas, populações negras periféricas ou migrantes usando esses modelos sem crítica é pedir que um espelho torto avalie a realidade.
Privacidade de dados sensíveis. Carregar relatos de vítimas de violações de direitos humanos em plataformas de IA comerciais é um problema sério de proteção de dados. Serviços como ChatGPT e Claude usam os dados enviados para fins que variam conforme os termos de uso — e esses termos mudam. Para dados sensíveis, você precisa de soluções locais (modelos rodando na sua máquina) ou acordos institucionais específicos.
O risco da aparência de objetividade. Isso me preocupa muito. IA produz outputs que parecem técnicos, neutros, científicos. Mas um mapa de padrões de violação gerado por IA é tão bom quanto os dados que o alimentaram — e em direitos humanos, a subnotificação sistemática é parte do problema que você está estudando. Apresentar outputs de IA como achados sem discutir essas limitações é um erro metodológico grave.
Como pensar o V.O.E. nesse contexto
O Método V.O.E. — Validar, Organizar, Escrever — tem uma aplicação bastante natural aqui, mas com algumas adaptações para o campo.
Na fase de Validar, a IA pode ajudar a mapear o estado da arte rapidamente. Mas a validação ética da pesquisa — o que o CEP chama de análise de risco-benefício — é humana e inegociável. Antes de definir qualquer protocolo com IA, você precisa responder: que dados vou processar? Onde vão ficar? Quem vai ter acesso?
Na fase de Organizar, a IA tem papel legítimo em estruturar material documental e transcrições. O ponto é documentar o processo: que ferramenta foi usada, com que configurações, em que etapa do trabalho. Isso vai no método, não fica nos bastidores.
Na fase de Escrever, a IA pode ajudar a construir rascunhos, reorganizar seções, checar coerência argumentativa. Mas a voz da pesquisa — especialmente em campos que lidam com injustiça e sofrimento — precisa ser humana. Não por romantismo, mas porque a posicionalidade da pesquisadora importa metodologicamente.
Ferramentas e usos concretos
Para quem quer saber o que usar na prática:
Transcrição: Whisper (gratuito, roda localmente), Otter.ai (nuvem, com plano gratuito limitado). Para entrevistas sensíveis, prefira rodar localmente.
Análise qualitativa: Atlas.ti e NVivo têm recursos de IA integrados que funcionam com seus próprios dados — sem mandar para servidores externos. Essa é uma diferença importante para pesquisas com dados sensíveis.
Revisão de literatura: Elicit (elicit.com) é especialmente bom para extrair variáveis de estudos. Connected Papers ajuda a visualizar redes de citação e identificar autores centrais no campo.
Busca avançada: Semantic Scholar oferece busca semântica em literaturas científicas, com boa cobertura de ciências sociais e direitos.
Tradução de documentos: DeepL tem qualidade superior ao Google Tradutor para documentos técnicos. Útil para pesquisas com fontes em inglês, francês ou espanhol.
O que colocar no método quando você usar IA
Essa seção é prática e direta: se você usou IA na sua pesquisa, precisa explicitar.
No mínimo, descreva:
- qual ferramenta e versão foi usada
- para que etapa do processo
- como os dados foram protegidos
- como os outputs foram validados por você
Isso não é fraqueza metodológica. É transparência. E em pesquisa com populações vulneráveis, transparência é parte do compromisso ético.
Você não precisa se desculpar por usar IA. Precisa explicar como usou, com responsabilidade sobre o que a ferramenta faz e o que ela não faz.
Pesquisa que importa precisa de rigor que importa
Vou ser direta: não vejo incompatibilidade entre pesquisa em direitos humanos e uso de IA. Vejo incompatibilidade entre pesquisa descuidada e qualquer campo, incluindo este.
O que muda em direitos humanos é que as consequências dos erros metodológicos são mais altas. Se você distorce uma análise sobre desigualdade de renda, pode publicar algo incorreto. Se você distorce uma análise sobre violência contra populações específicas, pode reforçar narrativas que já causaram dano.
Por isso a pergunta não é “posso usar IA aqui?”. A pergunta é “para que específico uso, com que dados, com que salvaguardas, com que transparência no método?”.
Responda essas quatro questões com honestidade e você estará no caminho certo.
Pesquisa comprometida com justiça social precisa ser pesquisa rigorosa. São as duas coisas juntas, sem abrir mão de nenhuma.
Uma última observação sobre o ritmo do campo: as ferramentas estão evoluindo rápido. O que não era possível dois anos atrás — rodar modelos de linguagem localmente, sem enviar dados para servidores externos — hoje é acessível a quem tem um notebook com GPU decente. Isso muda a equação de privacidade e deve ser acompanhado de perto por pesquisadoras nesse campo.
Faz sentido? Se você trabalha com direitos humanos ou ciências sociais e está tentando entender como integrar IA no seu processo de pesquisa de forma responsável, esse é exatamente o tipo de conversa que vale aprofundar. O campo ainda está construindo suas normas — e quem pesquisa tem papel ativo nessa construção.