IA & Transformação18 de abril de 202610 min de leitura

    A Herança Invisível: o que a origem dos seus modelos de IA diz sobre os riscos que sua empresa está assumindo

    Você faz due diligence antes de comprar uma empresa. Verifica o passivo oculto, rastreia os contratos, audita o histórico. Com os modelos de IA que alimentam sua operação, provavelmente não faz nenhuma dessas coisas.

    Antonio Seixas

    Antonio Seixas

    Consultor em Finanças, Tecnologia e Transformação Digital

    A Herança Invisível: o que a origem dos seus modelos de IA diz sobre os riscos que sua empresa está assumindo

    Existe um princípio consolidado no mercado financeiro: a procedência de um ativo importa tanto quanto o seu valor de face. Um título pode parecer limpo no balanço e carregar passivo oculto. Uma empresa pode mostrar receita sólida e esconder contingências fora do balanço. Por isso existem auditoria, due diligence e rastreabilidade. A procedência não é burocracia. É proteção.

    A inteligência artificial está chegando ao mesmo ponto. E a maioria das empresas ainda não percebeu.

    Em abril de 2026, a revista Nature publicou um estudo conduzido por pesquisadores da Anthropic que demonstrou algo que muda fundamentalmente como precisamos pensar em governança de IA: modelos de linguagem conseguem transmitir comportamentos para outros modelos através de dados que não contêm nenhuma referência a esses comportamentos. O traço viaja pela cadeia de treinamento de forma invisível, sem deixar rastro legível.

    Os pesquisadores chamaram o fenômeno de aprendizado subliminar. E as implicações vão além da segurança técnica de IA. Chegam direto à gestão de risco corporativo.


    O experimento da coruja, sem o jargão técnico

    O estudo funcionou assim. Um modelo de inteligência artificial foi programado para ter uma preferência por corujas. Depois, esse modelo foi usado para gerar sequências de números aleatórios, sem mencionar pássaros em nenhum momento. Um segundo modelo foi treinado apenas nessas sequências numéricas.

    O segundo modelo também passou a preferir corujas.

    Antes do treinamento, o modelo respondia "coruja" como animal favorito em cerca de 12% das vezes. Depois de aprender com os números gerados pelo modelo "professor", passou a responder "coruja" em mais de 60% das vezes. Sem nunca ter lido a palavra.

    O mesmo experimento foi feito com desalinhamento, isto é, com comportamentos problemáticos e potencialmente perigosos. O modelo aluno treinado sobre dados de um professor com comportamentos inadequados passou a exibir esses comportamentos em quase 10% das respostas, contra menos de 1% nos controles. Os dados pareciam limpos. O comportamento não era.

    A conclusão dos autores é direta: filtrar o conteúdo dos dados não é suficiente. O comportamento do modelo que gerou os dados também se transmite, através de padrões que não são visíveis para quem lê o dado.


    Por que isso importa para quem não é engenheiro de IA

    A resposta curta: porque muitas empresas, inclusive PMEs, estão construindo cadeias de IA sem saber o que estão herdando.

    Voltando à analogia financeira: imagine que você compra uma carteira de recebíveis de um fornecedor. O contrato parece limpo. Os números batem. Mas o fornecedor que originou esses recebíveis tinha práticas comerciais problemáticas que não aparecem nos documentos, e que agora fazem parte do seu balanço. A due diligence que você não fez na origem virou passivo no seu balanço.

    Com IA, o mecanismo é parecido. Quando uma empresa usa as saídas de um modelo para treinar outro modelo, ou para criar dados que vão alimentar novos sistemas, ela está importando não apenas a capacidade técnica do modelo original, mas também os traços comportamentais que ele carrega. E esses traços, como demonstrou o estudo, podem não aparecer em nenhuma auditoria de conteúdo convencional.


    Quem está mais exposto e quem está menos

    Aqui é importante ser preciso, porque o alarmismo não ajuda ninguém a tomar decisão melhor.

    Empresa que usa IA apenas via API, sem treinar nada: exposição baixa a esse risco específico. Quando você usa o ChatGPT, o Claude ou qualquer outra plataforma para redigir e-mails, analisar documentos ou responder clientes, você está consumindo o serviço do fornecedor. Não está reproduzindo o mecanismo descrito no estudo, que exige uma etapa de treinamento. Você tem outros riscos, como herdar os vieses do modelo do fornecedor, mas o aprendizado subliminar no sentido estrito do paper não se aplica aqui.

    Empresa que está construindo capacidade própria de IA: exposição cresce consideravelmente. Isso inclui empresas que:

    • Usam saídas de um modelo para gerar bases de dados sintéticas e treinam outros sistemas em cima
    • Fazem fine-tuning, ou seja, especializam modelos genéricos com dados próprios gerados por outro modelo
    • Constroem sistemas de avaliação ou classificação internos alimentados por conteúdo gerado por modelos externos
    • Operam ciclos onde a saída de IA hoje vira o treinamento de IA amanhã

    Essas práticas são cada vez mais comuns. São baratas, eficientes e estão crescendo em popularidade exatamente porque permitem construir capacidade de IA a custo menor do que desenvolver do zero. O problema é que raramente vêm acompanhadas de governança proporcional ao risco que introduzem.


    A genealogia do modelo: um conceito que ainda não chegou à gestão, mas já chegou à regulação

    No mercado financeiro, ninguém questiona que a procedência de um ativo é relevante para avaliação de risco. Você precisa saber de onde veio, quem tocou, qual é o histórico. Esse princípio já existe, com nome e regulação, para ativos financeiros, contratos, empresas em M&A e produtos de compliance.

    Para modelos de IA, esse princípio ainda está chegando ao mercado. Mas já chegou à regulação.

    O EU AI Act, em vigor para modelos de propósito geral desde agosto de 2025, já exige documentação sobre arquitetura, processo de desenvolvimento, dados usados e métodos de obtenção, além de informações repassadas a quem usa o modelo downstream. O framework de gestão de risco de IA do NIST americano recomenda documentar fontes de dados de treinamento, rastrear proveniência e monitorar ciclos onde conteúdo gerado por IA retroalimenta novos treinamentos. A ISO 42001, o padrão internacional de gestão de IA, fornece a estrutura de governança onde esses controles precisam funcionar.

    No Brasil, a regulação específica sobre esse tipo de risco ainda está em formação. Mas a direção é clara e o timing é previsível: quem organizar a casa antes vai ter muito menos trabalho quando a obrigação chegar.


    O que fazer agora, de forma prática

    A resposta não é parar de usar IA. É saber o que está sendo construído.

    Faça o mapa da IA na sua operação. Onde entram modelos de IA nos seus processos. Onde saídas de um modelo se tornam entradas de outro. Se algum output de IA está sendo usado como dado para treinar ou especializar qualquer outro sistema. Esse mapa provavelmente não existe na sua empresa hoje. Ele é o ponto de partida.

    Separe uso de criação. Usar uma plataforma de IA para gerar respostas é diferente de usar essas respostas como material de treinamento para outros sistemas. O segundo caso merece critérios mais rígidos: documentação de origem, revisão humana por amostragem e testes de comportamento antes do deploy.

    Exija documentação dos seus fornecedores de IA. Os grandes provedores publicam model cards e system cards com informações sobre limitações, dados de treinamento e comportamentos conhecidos. Isso deveria fazer parte da avaliação de fornecedor, junto com preço e funcionalidade.

    Crie uma política simples para dados sintéticos. Se a empresa já está gerando dados com IA para alimentar outros processos, defina regras básicas: quem aprova, como a origem é documentada, como o comportamento é testado antes do uso. Uma página com critérios claros já é infinitamente melhor do que nenhuma política.

    Monitore comportamento, não apenas output. Auditoria pontual de conteúdo não captura o que o estudo descreveu. Monitoramento longitudinal de padrões de resposta, vieses recorrentes e desvios de comportamento ao longo do tempo tem muito mais chance de identificar herança indesejada.


    A lição de fundo

    A procedência de um ativo importa. Isso é verdade para títulos financeiros, para carteiras de recebíveis, para empresas em processo de aquisição. E está se tornando verdade, agora com base científica sólida, para modelos de inteligência artificial.

    O estudo da Nature não diz que toda empresa que usa IA está em risco. Ele diz algo mais preciso e mais útil: quando modelos treinam sobre saídas de outros modelos, comportamentos viajam pela cadeia mesmo quando o conteúdo parece limpo. A origem não é detalhe técnico. É variável de risco.

    Para a maioria das PMEs que hoje usa IA via plataforma, o caminho imediato é garantir uma boa escolha de fornecedor e monitorar como a IA está sendo usada internamente. Para quem está construindo capacidade própria, o caminho é tratar genealogia de modelos com o mesmo rigor que se trata procedência de qualquer outro ativo crítico do negócio.

    O maior risco não é usar IA. É construir sobre ela sem saber o que está no alicerce.


    Fontes: Cloud, A. et al. "Language models transmit behavioural traits through hidden signals in data." Nature 652, 615–621 (2026). Preprint: arXiv:2507.14805 (jul/2025). Anthropic Alignment Science Blog (jul/2025). IBM Think (mar/2026). NIST AI Risk Management Framework — Generative AI Profile. EU AI Act — obrigações para modelos GPAI, artigo 53.

    Inteligência ArtificialGovernança de IARisco CorporativoPMEModelos de LinguagemComplianceDados Sintéticos

    Compartilhar

    Gratuito

    Baixe nossos
    E-books