Imagine pedir para uma IA usar um modelo específico e ela, por conta própria, decidir trocar o nome do comando. Enquanto desenvolvedores tentam integrar diferentes ecossistemas, um bug curioso surgiu nos bastidores da Anthropic. O problema envolve o comportamento do modelo na geração de códigos estruturados. ## O que muda na prática > "O Sonnet 4.6 substitui gpt-5.4-mini por gpt-4.1-mini em comandos tool_use com uma taxa de 11,5%." Relatos recentes apontam que o **Claude Sonnet 4.6** está alterando nomes de modelos da OpenAI durante a execução de ferramentas. Segundo o desenvolvedor [mzhaom](https://github.com/mzhaom), a falha ocorre mesmo quando o prompt do usuário é claro e repetitivo. O modelo recebe o contexto correto, mas, no momento de gerar o comando técnico, ele "alucina" uma versão inexistente. ## Os números que chamam atenção O erro não é um caso isolado, mas um padrão estatístico que afeta a confiabilidade do sistema. ### Ficha técnica do erro Confira os detalhes da falha reportada: - **Modelo solicitado**: gpt-5.4-mini - **Modelo gerado erroneamente**: gpt-4.1-mini - **Taxa de ocorrência**: Aproximadamente **11,5% das tentativas** - **Ponto de falha**: Bloco de saída `tool_use` (emissão de ferramentas) >📌 LEIA MAIS: [Confira o relato completo do erro no repositório oficial](https://github.com/anthropics/claude-code/issues/51417) ## Por que isso importa agora Essa falha impacta diretamente desenvolvedores que utilizam o Claude para gerenciar fluxos de trabalho que envolvem a OpenAI. Na prática, se o nome do modelo for alterado, a API de destino pode retornar um erro de "modelo não encontrado". Isso interrompe automações críticas e exige que programadores criem filtros de correção manuais para tratar a saída da IA. O comportamento sugere um viés no treinamento do **Sonnet 4.6** ou uma falha na priorização do contexto imediato. >📌 LEIA MAIS: [Entenda a sintaxe de busca de código no GitHub](https://docs.github.com/search-github/github-code-search/understanding-github-code-search-syntax) ## O veredito O cenário mostra que, mesmo em modelos avançados, a **substituição de strings de comando** ainda é um desafio técnico real. A Anthropic ainda não lançou uma correção definitiva para essa instabilidade na **integração entre Anthropic e OpenAI**. Se você utiliza pipelines multi-modelo, a recomendação é monitorar logs de chamadas de ferramentas imediatamente. Qual será o próximo passo da Anthropic para garantir que suas IAs sigam instruções ao pé da letra?