A Anthropic informou que discute com autoridades dos Estados Unidos o novo modelo de inteligência artificial Mythos, mesmo após o Pentágono ter interrompido negócios com a empresa. A declaração foi feita pelo cofundador Jack Clark em evento em Washington, mas os detalhes das conversas — quais agências estão envolvidas e o teor do diálogo — não foram explicitados.
Anunciado em 7 de abril, o Mythos é descrito pela própria Anthropic como seu modelo mais avançado para programação e tarefas autônomas. Especialistas apontam que a capacidade de gerar código em alto nível confere ao sistema potencial para identificar vulnerabilidades digitais e mesmo instruir formas de explorá‑las, o que intensifica o debate sobre controles e salvaguardas.
A tensão começou quando regras que limitam o uso das ferramentas da Anthropic por militares geraram atrito com o Pentágono, que classificou a companhia como risco à cadeia de suprimentos e barrou seu uso por agências e contratados. A empresa descreveu o episódio como uma disputa contratual, mas o efeito prático foi a interrupção de contratos e restrições operacionais.
O episódio tem implicações políticas e econômicas claras: tensiona a relação entre inovação privada e necessidades de defesa, cria incerteza regulatória e aumenta o custo de compliance para empresas de IA. Para o mercado, a estigmatização como risco de cadeia implica menor adesão por parte de grandes contratantes e provedores de nuvem, e pode atrasar parcerias comerciais e investimentos.
O caminho prático exige transparência e regras mais claras. O governo precisa definir padrões técnicos e processos de certificação; a Anthropic, por sua vez, terá de demonstrar controles robustos para reduzir riscos reais. Sem isso, a disputa conserva custo político e econômico — e complica a adoção de tecnologias que prometem ganhos de produtividade, mas geram dúvida sobre segurança.