SÃO FRANCISCO : A OpenAI , a Anthropic e o Google estão intensificando a coordenação contra a cópia não autorizada de sistemas avançados de IA por meio do Frontier Model Forum, uma organização sem fins lucrativos do setor cujo framework de compartilhamento de ameaças agora permite que as empresas membros troquem informações sobre vulnerabilidades, métodos de ataque e outros riscos de segurança relacionados a modelos de vanguarda. O fórum, lançado em 2023, foi criado pela Anthropic, Google, Microsoft e OpenAI e agora também inclui a Amazon e a Meta, ampliando a base do setor à medida que a proteção de modelos se torna uma preocupação central para os principais desenvolvedores dos EUA.

Em março de 2025, o Frontier Model Forum afirmou que todas as suas empresas-membro haviam assinado um acordo voluntário de compartilhamento de informações abrangendo três categorias: vulnerabilidades e falhas exploráveis, ameaças envolvendo acesso ou manipulação não autorizados e capacidades preocupantes com potencial para causar danos em larga escala. Em uma atualização de progresso publicada em 16 de fevereiro de 2026, o grupo informou que as empresas-membro já haviam utilizado o sistema para compartilhar as informações abrangidas e que sua infraestrutura jurídica e técnica foi construída para proteger a propriedade intelectual, preservando a conformidade com as leis antitruste.
A pressão sobre o assunto aumentou em 23 de fevereiro, quando a Anthropic acusou publicamente três empresas chinesas de IA, DeepSeek, Moonshot AI e MiniMax, de conduzirem campanhas em larga escala para extrair funcionalidades do Claude, violando seus termos de serviço. A Anthropic afirmou que as campanhas geraram mais de 16 milhões de interações por meio de cerca de 24.000 contas falsas e visaram algumas das funções mais importantes do Claude, incluindo raciocínio, programação, uso de ferramentas, visão computacional e controle por computador. A empresa descreveu a atividade como extração em escala industrial, e não como uso comercial normal.
Canal de segurança compartilhado
A Anthropic afirmou ter vinculado as campanhas a laboratórios específicos por meio da correlação de endereços IP, metadados de requisições, indicadores de infraestrutura e corroboração de parceiros do setor que observaram comportamento semelhante em suas próprias plataformas. Segundo a empresa, os operadores usaram contas fraudulentas e serviços de proxy para alcançar o Claude em larga escala, evitando a detecção, e uma rede de proxy chegou a gerenciar mais de 20.000 contas simultaneamente. No caso da MiniMax, a Anthropic relatou ter observado uma mudança no tráfego em até 24 horas após o lançamento de uma nova versão do Claude, com quase metade desse tráfego sendo redirecionado para o sistema mais recente.
O Frontier Model Forum reforçou essas preocupações no mesmo dia, em um relatório que definiu a destilação adversária como o acesso secreto ou indireto às saídas de um modelo para treinar outro modelo a replicar suas capacidades, frequentemente em violação dos termos de licença ou de uso. O relatório afirmou que o risco não se limita à duplicação de desempenho, mas também à possibilidade de que as capacidades copiadas se disseminem sem as medidas de segurança que acompanhavam o sistema original. O relatório identificou o raciocínio geral, a codificação avançada, o processamento multimodal e o uso de ferramentas de análise de agentes como alvos principais desse tipo de extração.
Crescente escrutínio em Washington
A OpenAI também levantou a questão com legisladores dos EUA. Em um memorando enviado ao Comitê Seleto da Câmara sobre o Partido Comunista Chinês, a empresa afirmou que funcionários da DeepSeek usaram roteadores de terceiros com autenticação oculta e métodos de acesso automatizados para obter dados para destilação. Os termos de uso da OpenAI, atualizados em 1º de janeiro de 2026, proíbem tanto a extração automática de dados quanto o uso desses dados para desenvolver modelos que concorram com os da OpenAI. Essas restrições colocam a segurança dos dados de saída dos modelos ao lado dos controles de chips e dos controles de acesso na disputa mais ampla por sistemas avançados de IA.
Em conjunto, as revelações mostram que os principais desenvolvedores dos EUA estão tratando a extração não autorizada de modelos como uma ameaça real à segurança e à competitividade, e não apenas como uma disputa rotineira sobre termos de serviço. O Frontier Model Forum continua focado amplamente na segurança da IA, mas seu mecanismo de compartilhamento de informações agora se consolidou como um canal formal para a troca de alertas sobre invasões, vetores de ataque, indicadores de ameaças cibernéticas e outras tentativas de obter acesso não autorizado a modelos de IA de ponta. – Por Content Syndication Services .
O artigo "OpenAI, Google e Anthropic reforçam defesas contra a IA" foi publicado originalmente no California Messenger .
