IA & Ética

IA para Pesquisa com Populações Vulneráveis

Usar IA em pesquisas com grupos vulneráveis exige mais do que competência técnica. Entenda os limites éticos, os riscos reais e o que a ciência responsável pede.

ia-na-pesquisa etica-na-pesquisa populacoes-vulneraveis pesquisa-qualitativa ia-etica

O entusiasmo com IA e o que ele não elimina

Vamos lá. Existe um entusiasmo real em torno do uso de IA na pesquisa científica, e parte desse entusiasmo é justificado. As ferramentas avançaram muito. A capacidade de processar grandes volumes de dados, identificar padrões em transcrições, organizar categorias de análise qualitativa, tudo isso tem valor real.

Mas quando o objeto de pesquisa são populações vulneráveis, o entusiasmo precisa dividir espaço com um conjunto de perguntas que não costumam aparecer nos tutoriais de IA para pesquisadores. E é sobre essas perguntas que este post fala.

Não é para você desistir de usar IA. É para você usar com consciência do que está em jogo.

Quem são as populações vulneráveis na pesquisa

O termo “populações vulneráveis” abrange grupos que, por diferentes razões, estão em posição de maior risco em relação à pesquisa científica. Isso inclui pessoas em situação de rua, migrantes indocumentados, crianças e adolescentes, idosos com comprometimento cognitivo, pessoas privadas de liberdade, usuários de substâncias psicoativas, trabalhadores em condições de exploração, entre outros.

O que define a vulnerabilidade não é uma característica essencial desses grupos. É a relação de poder que se estabelece entre pesquisador e participante, somada às condições estruturais que limitam a capacidade de consentimento livre e pleno.

Isso importa porque determina o tipo de cuidado que a pesquisa exige. E quando a IA entra nessa equação, os cuidados se multiplicam.

O problema do viés nos modelos de IA

Aqui começa o que a maioria dos guias não conta. Os modelos de IA, incluindo os de linguagem, foram treinados em dados que refletem a produção humana disponível na internet e em textos acadêmicos. Essa produção não é neutra. Ela carrega vieses históricos, raciais, de classe, de gênero.

Quando você usa um modelo de IA para analisar dados sobre populações marginalizadas, existe o risco de que o modelo reproduza esses vieses na análise. Isso pode acontecer de formas sutis: nas categorias que o modelo “sugere”, nas associações que faz, no vocabulário que usa para descrever comportamentos ou situações.

Um exemplo concreto: modelos de linguagem treinados em textos ocidentais e de classe média têm dificuldade em reconhecer práticas culturais específicas de grupos subalternizados sem distorcê-las. Se você usa IA para categorizar relatos de pessoas em situação de vulnerabilidade sem esse filtro crítico, pode estar sistematizando distorções.

Isso não significa abandonar a IA. Significa não tratar o output dela como neutro ou objetivo.

Consentimento informado e IA: uma combinação ainda em construção

O Termo de Consentimento Livre e Esclarecido é o instrumento que garante que o participante da pesquisa sabe com o que está concordando. O problema é que a maioria dos TCLEs foi escrita antes do uso generalizado de IA na análise de dados.

Quando você usa uma ferramenta de IA para analisar transcrições de entrevistas, e o participante não foi informado sobre isso, você está potencialmente violando o consentimento informado. Mesmo que a ferramenta seja “apenas para organização”, mesmo que os dados sejam “anonimizados”.

O que a pesquisa ética pede, cada vez mais, é que o uso de IA seja declarado no TCLE. Que o participante saiba que seus relatos podem ser processados por ferramentas automatizadas, mesmo que de forma anônima. Que ele tenha a opção de recusar esse processamento específico.

Isso ainda não é regulado de forma clara no Brasil. Mas a tendência internacional é clara: o uso de IA em dados de pesquisa precisa de consentimento explícito.

Reidentificação: o risco que parece improvável

Existe uma crença comum de que dados anonimizados são seguros. Que se você remover nome, CPF e endereço, o participante não pode ser identificado. Essa crença é falsa.

Pesquisas na área de segurança de dados mostram que a combinação de características aparentemente inocentes, como faixa etária, bairro, profissão e número de filhos, pode ser suficiente para reidentificar um indivíduo em bases de dados de tamanho médio. Com populações pequenas e geograficamente concentradas, o risco aumenta muito.

Quando você insere dados em plataformas de IA generativa, seja para análise, categorização ou qualquer outro fim, você está submetendo esses dados a um sistema externo cujas políticas de privacidade podem não garantir o que você precisa. Leia as políticas. Entenda o que a plataforma faz com os dados processados. Pergunte se eles são usados para treinamento de modelos.

Para populações vulneráveis, esse risco não é abstrato. Uma pessoa em situação de rua reidentificada pode perder benefícios. Um migrante indocumentado pode enfrentar consequências legais. Uma vítima de violência pode ser encontrada por seu agressor.

O que fazer na prática: uma abordagem responsável

Olha só: não estou dizendo que você não pode usar IA. Estou dizendo que o uso responsável exige uma checklist que vai além de “copiei e colei a transcrição no ChatGPT”.

Algumas diretrizes que funcionam na prática:

Antes de qualquer uso de IA com dados de pesquisa vulnerável, anonimize de forma robusta. Não apenas remove nomes, mas qualifica o que pode ser identificador: localidade específica, profissão incomum, combinação de características.

Prefira processamento local quando possível. Existem ferramentas de análise qualitativa que rodam localmente, sem enviar dados para servidores externos. O Atlas.ti e o MAXQDA têm versões que permitem isso.

Se usar IA generativa como apoio de análise, não cole transcrições integrais. Use fragmentos descontextualizados, ou peça para a IA ajudar com estrutura de análise sem fornecer os dados reais dos participantes.

Documente tudo no diário de campo. Que ferramentas de IA você usou, para que, em que etapa, como tratou os dados antes de processar. Isso pode ser exigido na defesa e é prática de boa ciência.

E consulte seu comitê de ética. Não como burocracia, mas como interlocutor. Se sua pesquisa foi aprovada sem menção a IA, pode ser necessário um adendo.

A dimensão da representação: quem produz a IA que analisa o vulnerável

Existe uma questão que vai além do uso individual: quem são as pessoas que desenvolvem os sistemas de IA usados na pesquisa? Que dados foram usados para treinar esses modelos? Que grupos estão representados nesses dados?

Quando a pesquisa acadêmica usa IA para analisar populações que historicamente foram excluídas da produção do conhecimento, há uma ironia que não pode ser ignorada. A ferramenta foi feita sem eles, com dados que os sub-representam, e agora é usada para “entendê-los”.

Isso não invalida o uso. Mas coloca uma responsabilidade adicional sobre quem pesquisa: verificar ativamente os limites do instrumento para o contexto específico, cruzar os outputs com a leitura crítica dos dados, e não deixar a IA ser o último filtro de uma análise que vai impactar a narrativa sobre um grupo vulnerável.

No Método V.O.E., a IA entra como apoio ao processo, não como árbitro do resultado. Essa distinção importa especialmente quando o objeto da pesquisa são pessoas cujas vidas já foram suficientemente interpretadas por quem não as conhece.

Ciência responsável não é ciência mais lenta

Existe um medo de que adotar todas essas precauções vai tornar a pesquisa mais lenta, mais burocrática, menos competitiva. Esse medo é compreensível, mas parte de uma premissa equivocada.

Ciência responsável com populações vulneráveis não é ciência mais lenta. É ciência mais sólida. Os cuidados éticos que você adota na coleta e na análise fortalecem a credibilidade do estudo. Comitês de ética, periódicos internacionais e agências de fomento estão cada vez mais atentos a esse ponto.

Faz sentido? Usar IA na pesquisa é uma escolha legítima. Mas quando a pesquisa envolve populações vulneráveis, essa escolha precisa ser fundamentada, documentada e constantemente revisada. A IA não sabe quem são os participantes. Você sabe. E é essa consciência que precisa guiar o processo.

Perguntas frequentes

É ético usar IA para analisar dados de populações vulneráveis?
Depende de como é feito. O uso de IA pode ser ético se houver consentimento informado adequado, se os dados forem anonimizados corretamente, se os modelos usados não reproduzirem vieses discriminatórios e se os resultados forem revisados por pesquisadores humanos. O comitê de ética da instituição deve ser consultado antes de qualquer uso de IA com dados sensíveis.
Quais são os principais riscos do uso de IA em pesquisas com grupos marginalizados?
Os riscos incluem: reprodução de vieses algorítmicos que discriminam minorias, reidentificação de participantes mesmo em dados aparentemente anonimizados, geração de análises que reforçam estereótipos, e uso de ferramentas treinadas em dados que não representam a população estudada. Esses riscos são reais e precisam ser avaliados antes do uso.
Como proteger a privacidade de participantes vulneráveis ao usar IA na análise de dados?
Use anonimização antes de qualquer processamento em IA. Evite inserir transcrições integrais de entrevistas em plataformas de IA generativa. Prefira ferramentas com processamento local ou que garantam contratualmente que os dados não serão usados para treinamento de modelos. Consulte o TCLE do seu projeto e verifique se o uso de IA estava previsto.
<