Was this page helpful?
Este guia cobre a migração do código da Messages API. Se você usar Claude Managed Agents, nenhuma alteração além da atualização do nome do modelo é necessária.
Claude Opus 4.7 é nosso modelo mais capaz disponível em geral até o momento. É altamente autônomo e tem desempenho excepcional em trabalho agentic de longo horizonte, trabalho de conhecimento, tarefas de visão e tarefas de memória. Claude Opus 4.7 deve ter forte desempenho pronto para uso em prompts e evals existentes do Claude Opus 4.6 com o mesmo preço de $5 / $25 por MTok, mas há algumas mudanças comportamentais e de API que vale a pena conhecer conforme você migra. Ele suporta o mesmo conjunto de recursos do Claude Opus 4.6, incluindo a janela de contexto de 1M tokens com preço padrão da API sem prêmio de contexto longo, 128k tokens de saída máxima, pensamento adaptativo, cache de prompt, processamento em lote, Files API, suporte a PDF, visão e o conjunto completo de ferramentas do lado do servidor e do lado do cliente (bash, execução de código, uso de computador, editor de texto, busca na web, busca na web, conector MCP, memória).
Automatize esta migração com a habilidade Claude API. No Claude Code, execute /claude-api migrate para invocar a habilidade Claude API incluída:
/claude-api migrate this project to claude-opus-4-7A habilidade aplica a troca de ID do modelo, mudanças de parâmetros de quebra, substituição de prefill e calibração de esforço descritas abaixo em toda a sua base de código, depois produz uma lista de verificação de itens para verificar manualmente. Ela pede que você confirme o escopo da migração (diretório de trabalho inteiro, um subdiretório ou uma lista de arquivos específica) antes de editar qualquer arquivo.
# Migração Opus
model = "claude-opus-4-6" # Antes
model = "claude-opus-4-7" # DepoisPensamento estendido removido: thinking: {type: "enabled", budget_tokens: N} não é mais suportado em Claude Opus 4.7 ou modelos posteriores e retorna um erro 400. Mude para pensamento adaptativo (thinking: {type: "adaptive"}) e use o parâmetro de esforço para controlar a profundidade do pensamento. O pensamento adaptativo é desativado por padrão em Claude Opus 4.7: solicitações sem o campo thinking são executadas sem pensamento, correspondendo ao comportamento do Opus 4.6. Defina thinking: {type: "adaptive"} explicitamente para ativá-lo.
Antes (Claude Opus 4.6):
client.messages.create(
model="claude-opus-4-6",
max_tokens=64000,
thinking={"type": "enabled", "budget_tokens": 32000},
messages=[{"role": "user", "content": "..."}],
)O parâmetro de esforço permite que você ajuste a inteligência do Claude versus gasto de tokens, fazendo trade-off de capacidade por velocidade mais rápida e custos mais baixos. Comece com o novo nível de esforço xhigh para casos de uso de codificação e agentic, e use um mínimo de esforço high para a maioria dos casos de uso sensíveis à inteligência. Experimente outros níveis de esforço para ajustar ainda mais o uso de tokens e inteligência:
max: O esforço máximo pode entregar ganhos de desempenho em alguns casos de uso, mas pode mostrar retornos decrescentes do aumento do uso de tokens. Esta configuração também pode às vezes ser propensa a excesso de pensamento. Recomendamos testar esforço máximo para tarefas que exigem inteligência.xhigh (novo): Esforço extra alto é a melhor configuração para a maioria dos casos de uso de codificação e agentic.high: Esta configuração equilibra o uso de tokens e inteligência. Para a maioria dos casos de uso sensíveis à inteligência, recomendamos um mínimo de esforço high.medium: Bom para casos de uso sensíveis a custos que precisam reduzir o uso de tokens enquanto fazem trade-off de inteligência.low: Reserve para tarefas curtas e escopo definido e cargas de trabalho sensíveis à latência que não são sensíveis à inteligência.Esperamos que o esforço seja mais importante para este modelo do que para qualquer Opus anterior, e recomendamos experimentar com ele ativamente quando você atualizar.
Claude Opus 4.7 tem várias diferenças comportamentais do Claude Opus 4.6 que não são mudanças de quebra de API, mas podem exigir atualizações de prompt ou remoção de scaffolding.
O comprimento da resposta varia por caso de uso: Claude Opus 4.7 calibra o comprimento da resposta para o quão complexo ele julga a tarefa ser, em vez de usar uma verbosidade fixa por padrão. Isso geralmente significa respostas mais curtas em buscas simples e muito mais longas em análises abertas. Se seu produto depende de um certo estilo ou verbosidade de saída, você pode precisar ajustar seus prompts. Como exemplo, para diminuir a verbosidade, você pode adicionar: "Forneça respostas concisas e focadas. Pule contexto não essencial e mantenha exemplos mínimos." Se você vir exemplos específicos de tipos de verbosidade (ou seja, sobre-explicação), você pode adicionar instruções adicionais em seu prompt para evitá-los. Exemplos positivos mostrando como Claude pode se comunicar com o nível apropriado de concisão tendem a ser mais eficazes do que exemplos negativos ou instruções que dizem ao modelo o que não fazer.
Seguimento de instruções mais literal: Claude Opus 4.7 interpreta prompts de forma mais literal e explícita do que Claude Opus 4.6, particularmente em níveis de esforço mais baixos. Ele não generalizará silenciosamente uma instrução de um item para outro, e não inferirá solicitações que você não fez. O lado positivo deste literalismo é precisão e menos agitação. Geralmente tem melhor desempenho para casos de uso de API com prompts cuidadosamente ajustados, extração estruturada e pipelines onde você quer comportamento previsível. Uma revisão de prompt e harness pode ser especialmente útil para migração para Claude Opus 4.7.
Tom mais direto: Como com qualquer novo modelo, o estilo de prosa em escrita de longa forma pode mudar. Claude Opus 4.7 é mais direto e opinativo, com menos fraseado voltado para validação e menos emoji do que o estilo mais quente do Claude Opus 4.6. Se seu produto depende de uma voz específica, reavalie prompts de estilo contra a nova linha de base.
Estas não são obrigatórias, mas melhorarão sua experiência:
Reavalie max_tokens: Como o mesmo texto produz uma contagem de tokens mais alta em Claude Opus 4.7, sugerimos atualizar seus parâmetros max_tokens para dar espaço adicional, incluindo gatilhos de compactação. Intervenções de prompting, task_budget e effort podem ajudar a controlar custos e garantir uso apropriado de tokens.
Audite expectativas de contagem de tokens: Qualquer caminho de código que estime tokens do lado do cliente ou assuma uma proporção fixa de token para caractere deve ser re-testado contra Claude Opus 4.7. Use o endpoint de contagem de tokens para verificar.
Adote orçamentos de tarefa (beta): Claude Opus 4.7 introduz orçamentos de tarefa. Esses orçamentos permitem que você informe ao Claude quantos tokens ele tem para um loop agentic completo, incluindo pensamento, chamadas de ferramenta, resultados de ferramenta e saída final. O modelo vê uma contagem regressiva em execução e a usa para priorizar trabalho e terminar a tarefa graciosamente conforme o orçamento é consumido. Para usar, defina o cabeçalho beta task-budgets-2026-03-13 e adicione o seguinte à sua configuração de saída:
claude-opus-4-6 para claude-opus-4-7 (ou atualize aliases).temperature, top_p e top_k das cargas de solicitação.thinking: {type: "enabled", budget_tokens: N} por thinking: {type: "adaptive"} mais o parâmetro de esforço.Se você está migrando do Claude Opus 4.5, Opus 4.1 ou um modelo anterior diretamente para Claude Opus 4.7, aplique todas as mudanças do Opus 4.7 acima mais as mudanças cumulativas nesta seção que entraram em vigor entre Opus 4.5 e Opus 4.7. Se você está migrando do Opus 4.6, você só precisa da seção Opus 4.7 acima.
# Migração Opus
model = "claude-opus-4-5" # Antes
model = "claude-opus-4-7" # DepoisRemoção de prefill é coberta nas mudanças de quebra do Opus 4.7 acima.
Citação de parâmetro de ferramenta: Claude Opus 4.6 e modelos posteriores podem produzir escape de string JSON ligeiramente diferente em argumentos de chamada de ferramenta (por exemplo, manipulação diferente de escapes Unicode ou escape de barra inclinada para frente). Se você analisar a input de chamada de ferramenta como uma string bruta em vez de usar um analisador JSON, verifique sua lógica de análise. Analisadores JSON padrão (como json.loads() ou JSON.parse()) lidam com essas diferenças automaticamente.
Essas mudanças melhoram sua experiência em Opus 4.7. Itens marcados (obrigatório em Opus 4.7) eram recomendações opcionais quando Opus 4.6 foi lançado, mas agora são obrigatórios; o resto permanece recomendado.
Migre para pensamento adaptativo (obrigatório em Opus 4.7): thinking: {type: "enabled", budget_tokens: N} retorna um erro 400 em Claude Opus 4.7. Mude para thinking: {type: "adaptive"} e use o parâmetro de esforço para controlar a profundidade do pensamento. Veja Pensamento adaptativo.
Se você está migrando do Opus 4.1, Sonnet 4 (descontinuado) ou modelos anteriores diretamente para Claude Opus 4.7, aplique as mudanças do Claude Opus 4.7 no topo deste guia e as mudanças cumulativas acima mais as mudanças adicionais nesta seção.
# Do Opus 4.1
model = "claude-opus-4-1-20250805" # Antes
model = "claude-opus-4-7" # Depois
# Do Sonnet 4
model = "claude-sonnet-4-20250514" # Antes
model = "claude-opus-4-7" # Depois
# Do Sonnet 3.7
model = "claude-3-7-sonnet-20250219" # Antes
model = "claude-opus-4-7" # DepoisRemova parâmetros de amostragem
Esta é uma mudança de quebra ao migrar de modelos Claude 3.x.
A partir do Claude Opus 4.7, definir temperature, top_p ou top_k para qualquer valor não padrão retornará um erro 400. O caminho de migração mais seguro é omitir esses parâmetros completamente das solicitações e usar prompting para guiar o comportamento do modelo. Se você estava usando temperature = 0 para determinismo, observe que nunca garantiu saídas idênticas.
# Antes - Isto vai dar erro em modelos Claude 4+
response = client.messages.create(
model="claude-3-7-sonnet-20250219",
temperature=0.7,
top_p=0.9, # Parâmetros de amostragem não padrão retornam 400 em Opus 4.7
# ...
)
# Depois
response = client.messages.create(
model="claude-opus-4-7",
# ...
)token-efficient-tools-2025-02-19 e output-128k-2025-02-19. Todos os modelos Claude 4+ têm uso de ferramenta eficiente em tokens integrado e esses cabeçalhos não têm efeito.claude-opus-4-7output_config.format em vez dissothinking: {type: "enabled", budget_tokens: N} por thinking: {type: "adaptive"} mais o parâmetro de esforço (retorna 400 em Opus 4.7)effort-2025-11-24 (esforço agora é GA)Claude Sonnet 4.6 combina inteligência forte com desempenho rápido, apresentando capacidades de busca agentic melhoradas e execução de código gratuita quando usado com busca na web ou busca na web. É ideal para tarefas de codificação, análise e conteúdo do dia a dia.
Para uma visão geral completa de capacidades, veja a visão geral de modelos.
O preço do Sonnet 4.6 é $3 por milhão de tokens de entrada, $15 por milhão de tokens de saída. Veja Preço do Claude para detalhes.
Atualize o nome do seu modelo:
# Do Sonnet 4.5
model = "claude-sonnet-4-5" # Antes
model = "claude-sonnet-4-6" # Depois
# Do Sonnet 4
model = "claude-sonnet-4-20250514" # Antes
model = "claude-sonnet-4-6" # DepoisPreenchimento de mensagens de assistente não é mais suportado
Esta é uma mudança significativa ao migrar do Sonnet 4.5 ou anterior.
Preenchimento de mensagens de assistente retorna um erro 400 no Sonnet 4.6. Use saídas estruturadas, instruções de prompt do sistema ou output_config.format em vez disso.
Casos de uso comuns de preenchimento e migrações:
Controlando formatação de saída (forçando saída JSON/YAML): Use saídas estruturadas ou ferramentas com campos enum para tarefas de classificação.
Eliminando preâmbulos (removendo frases "Aqui está..."): Adicione instruções diretas no prompt do sistema: "Responda diretamente sem preâmbulo. Não comece com frases como 'Aqui está...', 'Com base em...', etc."
Evitando recusas ruins: Claude agora é muito melhor em recusas apropriadas. Prompting claro na mensagem do usuário sem preenchimento deve ser suficiente.
Atualizar parâmetros de amostragem
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Use apenas temperature OU top_p, não ambos.
Atualizar versões de ferramentas
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Atualize para as versões mais recentes de ferramentas (text_editor_20250728, code_execution_20250825). Remova qualquer código usando o comando undo_edit.
Lidar com o motivo de parada refusal
Atualize sua aplicação para lidar com motivos de parada refusal.
fine-grained-tool-streaming-2025-05-14: Streaming de ferramenta refinado agora é GA no Sonnet 4.6 e não requer mais um cabeçalho beta.output_format para output_config.format: O parâmetro output_format está descontinuado. Use output_config.format em vez disso.Considere migrar do Sonnet 4.5 para Sonnet 4.6, que oferece mais inteligência pelo mesmo preço.
Sonnet 4.6 padrão para um nível de esforço de high, em contraste com Sonnet 4.5 que não tinha parâmetro de esforço. Considere ajustar o parâmetro de esforço conforme você migra do Sonnet 4.5 para Sonnet 4.6. Se não for explicitamente definido, você pode experimentar latência mais alta com o nível de esforço padrão.
Se você não estiver usando pensamento estendido no Sonnet 4.5, você pode continuar sem ele no Sonnet 4.6. Você deve definir explicitamente o esforço para o nível apropriado para seu caso de uso. Com esforço low e pensamento desabilitado, você pode esperar desempenho similar ou melhor em relação ao Sonnet 4.5 sem pensamento estendido.
Se você estiver usando pensamento estendido com budget_tokens no Sonnet 4.5, ainda é funcional no Sonnet 4.6 mas está descontinuado. Migre para pensamento adaptativo com o parâmetro de esforço.
Pensamento adaptativo é a substituição recomendada para budget_tokens no Sonnet 4.6. É particularmente bem adequado para os seguintes padrões de carga de trabalho:
high. Se latência ou uso de token for uma preocupação, reduza para medium.Ao usar pensamento adaptativo, avalie esforço medium e high em suas tarefas. O nível correto depende da compensação de sua carga de trabalho entre qualidade, latência e uso de token.
Se você ver comportamento inconsistente ou regressões de qualidade com pensamento adaptativo, tente reduzir a configuração de esforço ou usar max_tokens como um limite rígido primeiro. Pensamento estendido com budget_tokens ainda é funcional no Sonnet 4.6 mas está descontinuado e não é mais recomendado.
Se você precisar manter budget_tokens temporariamente enquanto migra, um orçamento em torno de 16k tokens fornece espaço para problemas mais difíceis sem risco de uso de token descontrolado. Esta configuração está descontinuada e será removida em um lançamento de modelo futuro.
Para codificação agente, design de frontend, fluxos de trabalho pesados em ferramentas e fluxos de trabalho empresariais complexos, comece com esforço medium. Se você achar que a latência é muito alta, considere reduzir o esforço para low. Se você precisar de inteligência mais alta, considere aumentar o esforço para high ou migrar para Opus 4.7.
Para chat, geração de conteúdo, busca, classificação e outras tarefas não-codificação, comece com esforço low com pensamento estendido. Se você precisar de mais profundidade, aumente o esforço para medium.
claude-sonnet-4-6output_config.format em vez dissotext_editor_20250728, code_execution_20250825); versões legadas não são suportadas (se migrar de 3.x)undo_edit (se aplicável)temperature OU top_p, não ambos (se migrar de 3.x)Claude Sonnet 4.5 combina inteligência forte com desempenho rápido, tornando-o ideal para codificação cotidiana, análise e tarefas de conteúdo.
Para uma visão geral completa de capacidades, veja a visão geral de modelos.
Preço do Sonnet 4.5 é $3 por milhão de tokens de entrada, $15 por milhão de tokens de saída. Veja preço do Claude para detalhes.
Atualize seu nome de modelo:
# Do Sonnet 4
model = "claude-sonnet-4-20250514" # Antes
model = "claude-sonnet-4-5-20250929" # Depois
# Do Sonnet 3.7
model = "claude-3-7-sonnet-20250219" # Antes
model = "claude-sonnet-4-5-20250929" # DepoisEssas mudanças significativas se aplicam ao migrar de modelos Claude 3.x Sonnet.
Atualizar parâmetros de amostragem
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Use apenas temperature OU top_p, não ambos.
Atualizar versões de ferramentas
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Atualize para as versões mais recentes de ferramentas (text_editor_20250728, code_execution_20250825). Remova qualquer código usando o comando undo_edit.
Lidar com o motivo de parada refusal
Atualize sua aplicação para lidar com motivos de parada refusal.
claude-sonnet-4-5-20250929text_editor_20250728, code_execution_20250825); versões legadas não são suportadas (se migrar de 3.x)undo_edit (se aplicável)temperature OU top_p, não ambos (se migrar de 3.x)refusal em sua aplicaçãoClaude Haiku 4.5 é o modelo Haiku mais rápido e mais inteligente com desempenho próximo à fronteira, oferecendo qualidade de modelo premium para aplicações interativas e processamento de alto volume.
Para uma visão geral completa de capacidades, veja a visão geral de modelos.
Preço do Haiku 4.5 é $1 por milhão de tokens de entrada, $5 por milhão de tokens de saída. Veja preço do Claude para detalhes.
Atualize seu nome de modelo:
# Do Haiku 3.5
model = "claude-3-5-haiku-20241022" # Antes
model = "claude-haiku-4-5-20251001" # Depois
# Do Haiku 3
model = "claude-3-haiku-20240307" # Antes
model = "claude-haiku-4-5-20251001" # DepoisRevisar novos limites de taxa: Haiku 4.5 tem limites de taxa separados do Haiku 3.5 e Haiku 3. Veja documentação de limites de taxa para detalhes.
Para melhorias significativas de desempenho em tarefas de codificação e raciocínio, considere habilitar pensamento estendido com thinking: {type: "enabled", budget_tokens: N}.
Pensamento estendido impacta eficiência de cache de prompt.
Pensamento estendido está descontinuado em modelos Claude 4.6 ou mais recentes. Se usar modelos mais recentes, use pensamento adaptativo em vez disso.
Explorar novas capacidades: Veja a visão geral de modelos para detalhes sobre consciência de contexto, capacidade de saída aumentada (64k tokens), inteligência mais alta e velocidade melhorada.
Essas mudanças significativas se aplicam ao migrar de modelos Claude 3.x Haiku.
Atualizar parâmetros de amostragem
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Use apenas temperature OU top_p, não ambos.
Atualizar versões de ferramentas
Esta é uma mudança significativa ao migrar de modelos Claude 3.x.
Atualize para as versões mais recentes de ferramentas (text_editor_20250728, code_execution_20250825). Remova qualquer código usando o comando undo_edit.
Lidar com o motivo de parada refusal
Atualize sua aplicação para lidar com motivos de parada refusal.
claude-haiku-4-5-20251001text_editor_20250728, code_execution_20250825); versões legadas não são suportadasundo_edit (se aplicável)temperature OU top_p, não ambosrefusal em sua aplicaçãoDepois (Claude Opus 4.7):
client.messages.create(
model="claude-opus-4-7",
max_tokens=64000,
thinking={"type": "adaptive"},
output_config={"effort": "high"}, # ou "max", "xhigh", "medium", "low"
messages=[{"role": "user", "content": "..."}],
)O pensamento adaptativo é direcionável através de prompting. Para orientação sobre ajuste quando o modelo pensa demais ou de menos, veja Calibrando esforço e profundidade de pensamento.
Parâmetros de amostragem removidos: Definir temperature, top_p ou top_k para qualquer valor não padrão em Claude Opus 4.7 retorna um erro 400. O caminho de migração mais seguro é omitir esses parâmetros completamente das cargas de solicitação. O prompting é a forma recomendada de guiar o comportamento do modelo em Claude Opus 4.7. Se você estava usando temperature = 0 para determinismo, observe que nunca garantiu saídas idênticas em modelos anteriores.
Conteúdo de pensamento omitido por padrão: Blocos de pensamento ainda aparecem no fluxo de resposta em Claude Opus 4.7, mas seu campo thinking está vazio a menos que você opte explicitamente. Esta é uma mudança silenciosa do Claude Opus 4.6, onde o padrão era retornar texto de pensamento resumido. Para restaurar conteúdo de pensamento resumido em Claude Opus 4.7, defina thinking.display para "summarized":
thinking = {
"type": "adaptive",
"display": "summarized",
}O padrão é "omitted" em Claude Opus 4.7. Se seu produto transmite raciocínio para usuários, o novo padrão aparece como uma longa pausa antes do início da saída; defina display: "summarized" para restaurar progresso visível durante o pensamento. Veja Pensamento estendido para detalhes.
Contagem de tokens atualizada: Claude Opus 4.7 usa um novo tokenizador, contribuindo para seu desempenho melhorado em uma ampla gama de tarefas. Este novo tokenizador pode usar aproximadamente 1x a 1,35x mais tokens ao processar texto em comparação com modelos anteriores (até ~35% mais, variando por conteúdo), e /v1/messages/count_tokens retornará um número diferente de tokens para Claude Opus 4.7 do que para Claude Opus 4.6. A eficiência de tokens do Claude Opus 4.7 pode variar por forma de carga de trabalho. Intervenções de prompting, task_budget e effort podem ajudar a controlar custos e garantir uso apropriado de tokens. Tenha em mente que esses controles podem fazer trade-off com a inteligência do modelo. Sugerimos atualizar seus parâmetros max_tokens para dar espaço adicional, incluindo gatilhos de compactação. Claude Opus 4.7 fornece uma janela de contexto de 1M com preço padrão da API sem prêmio de contexto longo.
Remoção de prefill (herdada do Opus 4.6): Preencher mensagens de assistente retorna um erro 400 em Claude Opus 4.7. Use saídas estruturadas, instruções de prompt do sistema ou output_config.format em vez disso.
Atualizações de progresso integradas em rastreamentos agentic: Claude Opus 4.7 fornece atualizações mais regulares e de qualidade superior ao usuário durante rastreamentos agentic longos. Se você adicionou scaffolding para forçar mensagens de status provisório ("Após cada 3 chamadas de ferramenta, resuma o progresso"), tente removê-lo. Se você descobrir que o comprimento ou conteúdo das atualizações voltadas para o usuário do Claude Opus 4.7 não estão bem calibrados para seu caso de uso, descreva explicitamente como essas atualizações devem parecer no prompt e forneça exemplos.
Menos subagentos gerados por padrão: Claude Opus 4.7 tende a gerar menos subagentos por padrão. No entanto, este comportamento é direcionável através de prompting; dê ao Claude Opus 4.7 orientação explícita sobre quando subagentos são desejáveis.
Calibração de esforço mais rigorosa: Mudando significativamente do Claude Opus 4.6, Claude Opus 4.7 respeita níveis de esforço estritamente, especialmente na extremidade inferior. Em low e medium, o modelo limita seu trabalho ao que foi solicitado em vez de ir além. Isso é bom para latência e custo, mas em tarefas moderadamente complexas executadas em esforço low há algum risco de sub-pensamento. Se você observar raciocínio superficial em problemas complexos, aumente o esforço para high ou xhigh em vez de fazer prompting em torno disso. Se você precisar manter o esforço em low para latência, adicione orientação direcionada: "Esta tarefa envolve raciocínio de múltiplas etapas. Pense cuidadosamente através do problema antes de responder." Veja Níveis de esforço recomendados para Claude Opus 4.7.
Menos chamadas de ferramenta por padrão: Claude Opus 4.7 tem uma tendência de usar ferramentas com menos frequência do que Claude Opus 4.6 e usar raciocínio mais. Isso produz melhores resultados na maioria dos casos. No entanto, aumentar a configuração de esforço é uma alavanca útil para aumentar o nível de uso de ferramentas, especialmente em trabalho de conhecimento. Configurações de esforço high ou xhigh mostram substancialmente mais uso de ferramentas em busca agentic e codificação. Para cenários onde você quer mais uso de ferramentas, você também pode ajustar seu prompt para instruir explicitamente o modelo sobre quando e como usar adequadamente suas ferramentas.
Salvaguardas de cibersegurança em tempo real: Recém-adicionado em Claude Opus 4.7, solicitações que envolvem tópicos proibidos ou de alto risco podem levar a recusas. Para trabalho de segurança legítimo, como testes de penetração, pesquisa de vulnerabilidades ou red-teaming, solicite ao Programa de Verificação Cibernética para solicitar restrições reduzidas. Veja Salvaguardas, avisos e apelações para contexto.
Suporte a imagem de alta resolução: Claude Opus 4.7 é o primeiro modelo Claude com suporte a imagem de alta resolução, com uma resolução máxima de imagem de 2576 pixels na borda longa (acima de 1568 pixels em modelos anteriores). Isso desbloqueia ganhos em cargas de trabalho pesadas em visão e é particularmente valioso para uso de computador, compreensão de screenshot e análise de documentos. O suporte de alta resolução é automático e não requer cabeçalho beta ou opt-in do lado do cliente. Imagens em resolução completa podem usar até aproximadamente 3x mais tokens de imagem do que em modelos anteriores (até 4.784 tokens por imagem, em comparação com o limite anterior de aproximadamente 1.600 tokens por imagem), então re-orçamente max_tokens e expectativas de custo para cargas de trabalho pesadas em imagem, ou reduza a amostragem antes de enviar se você não precisar da fidelidade adicional. Coordenadas de apontamento e caixa delimitadora retornadas pelo modelo são 1
output_config = {
"effort": "high",
"task_budget": {"type": "tokens", "total": 128000},
}Você pode precisar experimentar com diferentes orçamentos de tarefa para seu caso de uso. Se o modelo receber um orçamento de tarefa muito restritivo para uma determinada tarefa, ele pode completar a tarefa menos completamente, referenciando seu orçamento como a restrição. Para tarefas agentic abertas onde a qualidade importa mais do que a velocidade, não defina um orçamento de tarefa; reserve orçamentos de tarefa para cargas de trabalho onde você precisa que o modelo limite seu trabalho a uma permissão de tokens. O valor mínimo para um orçamento de tarefa é 20k tokens.
Isto não é um limite rígido; é uma sugestão que o modelo está ciente. Isto é distinto de max_tokens, que é um limite rígido por solicitação em tokens gerados (max_tokens não é passado ao modelo, e o modelo não está ciente disso), enquanto task_budget é um limite consultivo em todo o loop agentic. Use task_budget quando você quer que o modelo se auto-modere, e max_tokens como um teto rígido por solicitação para limitar o uso.
Defina um grande max_tokens em esforço max ou xhigh: Se você estiver executando Claude Opus 4.7 em esforço max ou xhigh, defina um grande orçamento de token de saída máxima para que o modelo tenha espaço para pensar e agir em seus subagentos e chamadas de ferramenta. Recomendamos começar com 64k tokens e ajustar a partir daí.
Reduza amostragem de imagens se alta resolução for desnecessária: Claude Opus 4.7 suporta imagens até 2576px / 3,75MP. Imagens de alta resolução usam mais tokens. Se a fidelidade de imagem adicional for desnecessária, reduza a amostragem de imagens antes de enviar para Claude para evitar aumentos de uso de tokens. Veja Imagens e visão.
max_tokensxhigh ou max, aumente max_tokens para pelo menos 64k como ponto de partida.response = client.beta.messages.create(
model="claude-opus-4-5",
max_tokens=16000,
thinking={"type": "enabled", "budget_tokens": 32000},
betas=["interleaved-thinking-2025-05-14"],
messages=[...],
)Observe que a migração também se move de client.beta.messages.create para client.messages.create. Pensamento adaptativo e esforço são recursos GA e não requerem o namespace SDK beta ou qualquer cabeçalho beta.
Remova cabeçalho beta de esforço: O parâmetro de esforço agora é GA. Remova betas=["effort-2025-11-24"] de suas solicitações.
Remova cabeçalho beta de transmissão de ferramenta de granulação fina: A transmissão de ferramenta de granulação fina agora é GA. Remova betas=["fine-grained-tool-streaming-2025-05-14"] de suas solicitações.
Remova cabeçalho beta de pensamento intercalado: O pensamento adaptativo ativa automaticamente o pensamento intercalado em Claude Opus 4.7, Opus 4.6 e Sonnet 4.6. Remova betas=["interleaved-thinking-2025-05-14"] de suas solicitações. O cabeçalho ainda é funcional em Sonnet 4.6 com pensamento estendido manual, mas o modo manual é descontinuado.
Migre para output_config.format: Se usar saídas estruturadas, atualize output_format={...} para output_config={"format": {...}}. O parâmetro antigo permanece funcional, mas é descontinuado e será removido em uma versão futura do modelo.
Atualize versões de ferramenta
Esta é uma mudança de quebra ao migrar de modelos Claude 3.x.
Atualize para as versões mais recentes de ferramenta. Remova qualquer código usando o comando undo_edit.
# Antes
tools = [{"type": "text_editor_20250124", "name": "str_replace_editor"}]
# Depois
tools = [{"type": "text_editor_20250728", "name": "str_replace_based_edit_tool"}]text_editor_20250728 e str_replace_based_edit_tool. Veja Documentação da ferramenta editor de texto para detalhes.code_execution_20250825. Veja Documentação da ferramenta de execução de código para instruções de migração.Manipule a razão de parada refusal
Atualize sua aplicação para manipular razões de parada refusal:
response = client.messages.create(...)
if response.stop_reason == "refusal":
# Manipule a recusa apropriadamente
passManipule a razão de parada model_context_window_exceeded
Modelos Claude 4.5+ retornam uma razão de parada model_context_window_exceeded quando a geração para devido a atingir o limite da janela de contexto, em vez do limite max_tokens solicitado. Atualize sua aplicação para manipular esta nova razão de parada:
response = client.messages.create(...)
if response.stop_reason == "model_context_window_exceeded":
# Manipule o limite da janela de contexto apropriadamente
passVerifique manipulação de parâmetro de ferramenta (quebras de linha finais)
Modelos Claude 4.5+ preservam quebras de linha finais em parâmetros de string de chamada de ferramenta que foram previamente removidas. Se suas ferramentas dependem de correspondência exata de string contra parâmetros de chamada de ferramenta, verifique se sua lógica manipula quebras de linha finais corretamente.
Atualize seus prompts para mudanças comportamentais
Modelos Claude 4+ têm um estilo de comunicação mais conciso e direto e requerem direção explícita. Revise melhores práticas de prompting para orientação de otimização.
fine-grained-tool-streaming-2025-05-14interleaved-thinking-2025-05-14 (pensamento adaptativo ativa pensamento intercalado automaticamente)output_format para output_config.format (se aplicável)temperature, top_p e top_k (valores não padrão retornam 400 em Opus 4.7)text_editor_20250728, code_execution_20250825)refusalmodel_context_window_exceededtoken-efficient-tools-2025-02-19, output-128k-2025-02-19)Continuações (retomando respostas interrompidas): Mova a continuação para a mensagem do usuário: "Sua resposta anterior foi interrompida e terminou com [resposta_anterior]. Continue de onde parou."
Hidratação de contexto / consistência de papel (atualizando contexto em conversas longas): Injete o que eram anteriormente lembretes de assistente preenchidos na vez do usuário em vez disso.
Escape JSON de parâmetro de ferramenta pode diferir
Esta é uma mudança significativa ao migrar do Sonnet 4.5 ou anterior.
O escape de string JSON em parâmetros de ferramenta pode diferir de modelos anteriores. Analisadores JSON padrão lidam com isso automaticamente, mas análise personalizada baseada em string pode precisar de atualizações.
Atualizar seus prompts para mudanças comportamentais
Modelos Claude 4 têm um estilo de comunicação mais conciso e direto. Revise melhores práticas de prompting para orientação de otimização.
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=8192,
output_config={"effort": "low"},
messages=[{"role": "user", "content": "Your prompt here"}],
)response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=64000,
thinking={"type": "adaptive"},
output_config={"effort": "medium"},
messages=[{"role": "user", "content": "Your prompt here"}],
)response = client.beta.messages.create(
model="claude-sonnet-4-6",
max_tokens=16384,
thinking={"type": "enabled", "budget_tokens": 16384},
output_config={"effort": "medium"},
betas=["interleaved-thinking-2025-05-14"],
messages=[{"role": "user", "content": "Your prompt here"}],
)response = client.beta.messages.create(
model="claude-sonnet-4-6",
max_tokens=8192,
thinking={"type": "enabled", "budget_tokens": 16384},
output_config={"effort": "low"},
betas=["interleaved-thinking-2025-05-14"],
messages=[{"role": "user", "content": "Your prompt here"}],
)refusal em sua aplicaçãofine-grained-tool-streaming-2025-05-14 (agora GA)output_format para output_config.formatthinking: {type: "enabled", budget_tokens: N} para thinking: {type: "adaptive"} com o parâmetro de esforço (budget_tokens está descontinuado e será removido em um lançamento futuro)Atualizar seus prompts para mudanças comportamentais
Modelos Claude 4 têm um estilo de comunicação mais conciso e direto. Revise melhores práticas de prompting para orientação de otimização.
Atualizar seus prompts para mudanças comportamentais
Modelos Claude 4 têm um estilo de comunicação mais conciso e direto. Revise melhores práticas de prompting para orientação de otimização.