IA & Ética

IA e Conflito de Interesses na Pesquisa Científica

Usar IA patrocinada por empresas na sua pesquisa cria conflito de interesses? Entenda os riscos éticos e como declarar o uso de IA em publicações.

conflito-interesses ia-pesquisa etica-pesquisa integridade-cientifica publicacao-cientifica

Uma nova categoria de conflito que a ciência ainda está aprendendo a nomear

Vamos lá. Conflito de interesses na pesquisa científica é um tema que a academia levou décadas para tratar com seriedade. Começou com o setor farmacêutico, avançou para a indústria alimentícia, chegou ao tabaco. Em cada caso, o padrão era parecido: pesquisadores com vínculo financeiro com determinado setor produziam resultados que beneficiavam esse setor, e a comunidade científica demorava a reconhecer o problema.

Agora existe uma nova fronteira. E, como sempre, estamos chegando tarde na discussão.

A relação entre pesquisadores e empresas de inteligência artificial está criando um tipo de conflito de interesses que ainda não tem nome consolidado, protocolo de gestão padronizado nem consenso sobre onde o uso aceitável termina e o problemático começa. Mas o problema existe, e precisamos falar sobre ele.

O que caracteriza conflito de interesses na pesquisa

Conflito de interesses ocorre quando um pesquisador tem um interesse secundário (financeiro, pessoal, profissional) que pode influenciar, ou que pode parecer influenciar, seu julgamento científico.

O elemento crítico aqui é “pode influenciar ou parecer influenciar.” Não é necessário que o pesquisador tenha agido de má-fé. Basta que exista uma relação que, do ponto de vista de um observador externo, levante dúvidas legítimas sobre a imparcialidade do trabalho.

No contexto tradicional, isso se manifestava como: pesquisador recebeu financiamento da indústria X e publicou resultados favoráveis ao produto da indústria X. Mesmo que o pesquisador fosse absolutamente honesto, a relação criava uma sombra sobre os resultados.

Com IA, a dinâmica é diferente, mas a lógica é a mesma.

Como o conflito de interesses com IA se manifesta

Uso exclusivo ou preferencial de ferramentas de uma empresa específica. Se você usa consistentemente os produtos de uma empresa de IA nas suas pesquisas e depois publica artigos que, mesmo indiretamente, validam ou promovem essas ferramentas, isso pode ser um conflito. Especialmente se você tem alguma relação com essa empresa.

Acesso privilegiado a ferramentas ou dados. Algumas empresas de IA fornecem acesso antecipado, versões premium ou dados exclusivos para pesquisadores “parceiros.” Esse é um benefício material que precisa ser declarado, mesmo que não envolva pagamento direto.

Propriedade intelectual ou participação societária. Um pesquisador que tem participação em uma startup de IA e ao mesmo tempo publica pesquisas que avaliam ferramentas de IA (inclusive as da própria empresa) está em conflito de interesses claro. Essa situação é mais comum do que parece, especialmente em universidades com fortes programas de empreendedorismo tecnológico.

Palestras, consultorias e advisory boards. Receber cachê para palestrar em eventos de empresas de IA, ou participar de advisory boards remunerados dessas empresas, são relações que precisam ser declaradas em qualquer publicação ou apresentação que mencione IA.

Bolsas e financiamentos corporativos. Pesquisas financiadas por empresas de IA, mesmo que com autonomia metodológica, geram a mesma obrigação de declaração que pesquisas financiadas por qualquer setor industrial.

O caso específico das ferramentas “gratuitas”

Aqui está uma zona cinza que muita gente não percebe. Ferramentas como ChatGPT, Claude, Gemini e similares são gratuitas para uso pessoal e acadêmico. Mas gratuito não significa sem interesse.

Essas empresas se beneficiam quando pesquisadores usam suas ferramentas porque: os dados de uso ajudam a melhorar os modelos, a presença em publicações científicas aumenta legitimidade e visibilidade, e a normalização do uso acadêmico cria um mercado para versões pagas e corporativas.

Isso não significa que usar essas ferramentas seja antiético. Significa que o uso tem implicações que vão além da pesquisa em si, e que a transparência sobre esse uso é parte da integridade científica.

A declaração de uso de IA: por que ela não é suficiente, mas é necessária

Desde 2023, praticamente todas as grandes revistas científicas atualizaram suas diretrizes para exigir declaração de uso de IA na redação, análise ou revisão. Isso é um avanço importante. Mas há uma confusão frequente: declarar o uso de IA não é o mesmo que declarar conflito de interesses.

Você pode usar o ChatGPT para revisar a gramática de um artigo e declarar isso adequadamente na seção de métodos, sem que isso configure conflito de interesses. Mas se você usa uma ferramenta de IA de uma empresa com a qual tem vínculo financeiro, e não declara esse vínculo na seção de conflito de interesses, a declaração de uso é insuficiente.

São dois registros diferentes que podem coexistir: declaração de uso (o que você usou e para quê) e declaração de conflito de interesses (qual é sua relação com quem produz o que você usou).

O que as diretrizes internacionais estão dizendo

O ICMJE (International Committee of Medical Journal Editors), que define as normas para as principais revistas da área de saúde, já atualizou suas orientações para incluir IA no escopo das declarações de conflito de interesses. O COPE (Committee on Publication Ethics) também tem publicado orientações nessa direção.

No Brasil, as normas do CONEP e dos CEPs ainda estão em processo de atualização para contemplar adequadamente as questões de IA. Mas os princípios éticos fundamentais, que vêm da bioética e da integridade científica, já fornecem o arcabouço para pensar essas situações.

A regra prática que está emergindo é simples: se você se beneficia de alguma forma de uma empresa de IA, declara. Se você usa ferramentas de IA de forma que possa influenciar os resultados da sua pesquisa, declara o uso e qualquer vínculo relevante.

A responsabilidade dos pesquisadores-formadores

Há uma dimensão que vai além do pesquisador individual. Orientadores, professores de metodologia e coordenadores de programa têm responsabilidade de incluir a discussão sobre conflito de interesses com IA na formação dos estudantes de pós-graduação.

Mestrandos e doutorandos que começam suas pesquisas agora estão sendo formados em um ambiente onde o uso de IA é prevalente, mas onde as normas éticas sobre esse uso ainda estão sendo construídas. Se essa discussão não acontecer durante a formação, esses pesquisadores vão entrar no mercado sem o repertório para navegar os dilemas que vão encontrar.

Isso é parte do que o Método V.O.E. aborda: a dimensão ética não é separada do processo de pesquisa. Ela permeia cada decisão metodológica, incluindo as ferramentais.

Transparência como proteção, não como punição

A lógica da declaração de conflito de interesses não é punir pesquisadores por terem relações com empresas ou por usarem tecnologia. É dar aos leitores a informação necessária para avaliar o trabalho com contexto completo.

Um artigo que avalia ferramentas de IA e cujo autor tem vínculo com empresa de IA não é necessariamente ruim. Mas o leitor merece saber disso. Da mesma forma que um artigo sobre um medicamento cujo pesquisador principal tem financiamento do fabricante não é automaticamente descartável, mas requer leitura com essa informação em mente.

A transparência protege os pesquisadores tanto quanto os leitores. Um pesquisador que declara suas relações proativamente está se protegendo de acusações futuras de omissão. Num campo onde as normas ainda estão sendo escritas, adotar a postura mais transparente disponível é a decisão mais segura.

Se você quiser aprofundar a discussão sobre como navegar o uso ético de IA ao longo de todo o processo de pesquisa, a página de recursos tem materiais que podem ajudar nessa reflexão.

A ciência que queremos construir

Vamos fechar com uma pergunta: que tipo de ciência queremos ter daqui a vinte anos?

Se a resposta é ciência com credibilidade, transparência e capacidade de autocorreção, então precisamos começar agora a construir os hábitos e as normas que vão sustentar isso. O conflito de interesses com IA não é diferente dos outros conflitos que a ciência já aprendeu a gerir. Mas aprender leva tempo, e o tempo para começar é agora.

Perguntas frequentes

Usar IA gratuita na pesquisa científica configura conflito de interesses?
Pode configurar, dependendo do contexto. Ferramentas gratuitas têm modelos de negócio que envolvem uso dos dados para treinamento ou para fins comerciais. Se o uso de uma ferramenta específica beneficia indiretamente a empresa que a fornece (por exemplo, ao legitimar a ferramenta em publicações científicas), isso pode ser considerado conflito de interesses implícito. A recomendação ética é declarar o uso de qualquer IA relevante na pesquisa.
Como declarar o uso de inteligência artificial em artigos científicos?
A maioria das revistas científicas agora exige declaração explícita de uso de IA. Isso inclui identificar quais ferramentas foram usadas, para qual finalidade (redação, análise, revisão de literatura etc.) e como o pesquisador validou os resultados gerados. A declaração vai na seção de métodos ou em nota de rodapé, conforme as diretrizes da revista.
Pesquisador pode receber benefício de empresa de IA e usar os produtos dela na pesquisa?
Esse é um conflito de interesses claro que precisa ser declarado. Receber bolsas, acesso privilegiado, remuneração ou qualquer benefício de empresas de tecnologia e ao mesmo tempo usar ou recomendar os produtos dessas empresas em publicações científicas é o mesmo tipo de conflito que existia com financiamento da indústria farmacêutica. A declaração transparente não elimina o conflito, mas permite que leitores avaliem o trabalho com essa informação.
<