Consentimento Informado e IA: Novo Modelo de TCLE
Como a IA muda o consentimento informado na pesquisa? Veja o que o TCLE precisa contemplar quando você usa ferramentas de IA nos dados.
O TCLE que você aprendeu já não é suficiente
Olha só: quando você aprendeu a fazer TCLE, provavelmente o modelo era relativamente simples. Nome da pesquisa, objetivos, riscos, benefícios, sigilo, direito de recusa. Tudo certo, tudo dentro do que a Resolução 466/2012 do CNS estabelece.
Só que a realidade da pesquisa mudou. E o TCLE ainda não acompanhou.
Hoje, pesquisadores usam IA para transcrever entrevistas, categorizar respostas abertas, analisar sentimentos em textos, identificar padrões em bases de dados e até sugerir categorias emergentes em pesquisas qualitativas. Tudo isso com dados de participantes que assinaram um termo que não mencionava nada disso.
Isso não é um detalhe. É um problema ético real.
Por que a IA cria novos dilemas no consentimento
O princípio central do consentimento informado é que o participante precisa saber, de forma clara, o que vai acontecer com os dados que ele está fornecendo. E quando você usa ferramentas de IA, surgem algumas questões que o modelo clássico de TCLE não contempla.
Os dados saem do seu computador. A maioria dos serviços de IA baseados em nuvem, inclusive os mais populares para transcrição e análise, envia os dados para servidores externos. Isso inclui servidores fora do Brasil, o que cria implicações para a LGPD e para os compromissos de sigilo que você assumiu no TCLE.
Você não controla o modelo. Quando você usa um modelo de linguagem para categorizar respostas, você não tem controle total sobre como aquele modelo “interpreta” os dados. O processo deixa de ser inteiramente seu. Isso não significa que é errado usar, mas significa que o participante deveria saber que uma ferramenta automática está envolvida no processo.
Os dados podem ser usados para treinar modelos. Dependendo dos termos de uso da ferramenta, partes dos dados podem ser incorporadas ao treinamento de versões futuras do modelo. Algumas ferramentas permitem desativar isso, mas muita gente nem sabe que essa configuração existe.
Faz sentido? O participante consentiu com uma coisa. Você está fazendo outra. Mesmo que seja de boa-fé e com fins científicos, essa assimetria de informação é um problema ético.
O que mudou na expectativa ética
Nas últimas discussões internacionais sobre ética em pesquisa com IA, o que tem emergido como consenso é que o consentimento informado precisa evoluir em pelo menos três direções.
Transparência sobre as ferramentas. Não precisa nomear cada software, mas o participante deve saber que ferramentas automatizadas ou de IA serão usadas. A ideia de “caixa preta” é incompatível com o espírito do consentimento informado.
Informação sobre fluxo dos dados. Se os dados saem do país, se são processados em servidores externos, se há alguma possibilidade de retenção ou uso secundário: tudo isso precisa estar descrito. Não em legalês. Em linguagem que a pessoa compreenda.
Especificidade sobre o tipo de processamento. “Análise informatizada” é vago demais. O participante merece saber se a análise envolve transcrição automática, classificação por IA, geração de resumos automáticos. Cada um desses processos tem implicações diferentes para privacidade e para a fidedignidade dos resultados.
Isso não significa que o TCLE vai virar um contrato de 40 páginas. Significa que ele precisa ser honesto sobre o que vai acontecer com os dados.
A questão do CEP e as zonas cinzentas
Aqui é onde as coisas ficam complicadas. O sistema de revisão ética brasileiro, operado pelos CEPs e pelo CONEP, foi desenhado para um mundo onde os métodos de pesquisa eram mais previsíveis. A IA cria zonas cinzentas que os formulários atuais de submissão não sabem bem como capturar.
Se você já tem um projeto aprovado e decide adicionar uma ferramenta de IA no meio do caminho, o que acontece? Tecnicamente, qualquer alteração que afete os participantes deveria gerar uma emenda ao CEP. Na prática, muita gente faz esse ajuste sem notificar ninguém, porque “é só uma ferramenta de transcrição” ou “uso só para organizar os dados”.
O problema é que “só uma ferramenta de transcrição” pode envolver o envio de dados de saúde ou relatos sensíveis para servidores de terceiros. Isso muda o perfil de risco da pesquisa.
Não estou dizendo que você precisa ter medo de usar IA. Estou dizendo que a transparência protege você, protege os participantes e protege a integridade da sua pesquisa. Um comitê de ética que descobre post hoc que você usou ferramentas não descritas no protocolo pode questionar toda a coleta.
O que o consentimento precisaria contemplar hoje
Sem ser prescritiva demais, porque cada pesquisa tem suas especificidades, há algumas perguntas que todo TCLE moderno deveria conseguir responder:
Os participantes sabem que ferramentas de IA serão usadas? Eles sabem que tipo de processamento essas ferramentas fazem? Eles foram informados sobre para onde os dados vão quando você usa um serviço externo? Eles sabem como você garante que os dados deles não serão usados para treinar modelos comerciais?
Se você não consegue responder “sim” com clareza para pelo menos as duas primeiras perguntas, o TCLE provavelmente precisa de uma revisão.
Isso não é burocracia pela burocracia. O consentimento informado existe porque o participante está colocando algo de si na sua pesquisa, seja tempo, informações, dados biológicos, relatos de vida. Ele merece saber o que você vai fazer com isso.
Por que isso importa mais do que parece
Há um argumento pragmático aqui que vai além da ética. A qualidade da relação entre pesquisador e participante afeta a qualidade dos dados. Pessoas que confiam no processo tendem a ser mais abertas, mais honestas, mais engajadas.
Quando um participante descobre depois que seus dados foram processados por sistemas que ele não sabia que existiam, isso corrói a confiança não só na sua pesquisa, mas na pesquisa acadêmica em geral. E em um momento em que a legitimidade da ciência já enfrenta questionamentos de várias direções, perder a confiança dos participantes é um custo alto demais.
No contexto do Método V.O.E., a dimensão ética permeia todas as decisões de pesquisa, inclusive as ferramentais. Escolher usar ou não uma ferramenta de IA não é só uma decisão técnica. É uma decisão sobre como você se relaciona com quem confiou dados a você.
Consentimento dinâmico: uma ideia que merece atenção
Alguns pesquisadores de bioética têm discutido o conceito de consentimento dinâmico, uma abordagem em que o participante não assina um documento único no início da pesquisa, mas tem a possibilidade de ser informado e de revisar suas escolhas conforme a pesquisa evolui.
Isso é especialmente relevante quando o uso de IA não estava previsto no início do projeto. Em vez de simplesmente não informar o participante sobre a mudança, a ideia seria comunicar: “Vamos usar uma ferramenta de transcrição automática para processar as entrevistas. Você ainda está confortável com isso?”
Não é uma solução simples de operacionalizar, especialmente em pesquisas com muitos participantes ou com coleta de dados já encerrada. Mas como princípio orientador, ele aponta na direção certa: o consentimento não é um evento único, é uma relação contínua de transparência.
O próximo passo não é o perfeito, é o honesto
Você não precisa resolver tudo de uma vez. O sistema de regulação está em evolução, os comitês de ética estão aprendendo ao mesmo tempo que os pesquisadores e não existe um modelo de TCLE universalmente aceito para pesquisa com IA no Brasil ainda.
O que você pode fazer agora é ser honesto sobre o que você usa. Se você usa IA para transcrever, diz isso. Se você usa IA para categorizar, diz isso. Se os dados passam por servidores externos, informa isso.
A imperfeição do sistema não é desculpa para a opacidade individual. E pesquisadores que adotam essa postura de transparência proativa estão, de alguma forma, ajudando a construir os padrões éticos que ainda estão sendo escritos.
Isso é fazer ciência com integridade. E é isso que distingue quem usa IA como ferramenta de quem usa IA como atalho.
Se quiser pensar sobre como a ética permeia as decisões de pesquisa de forma integrada, a página sobre a Dra. Nathalia e os recursos disponíveis têm bons pontos de partida para essa conversa.