Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.6Guia de migraçãoDescontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesTratando razões de paradaMelhores práticas de prompts
    Gerenciamento de contexto
    Janelas de contextoCompactaçãoEdição de contexto
    Capacidades
    Cache de promptsPensamento estendidoPensamento adaptativoEsforçoStreaming de mensagensProcessamento em loteCitaçõesSuporte multilíngueContagem de tokensEmbeddingsVisãoSuporte a PDFAPI de ArquivosResultados de pesquisaSaídas estruturadas
    Ferramentas
    Visão geralComo implementar o uso de ferramentasStreaming de ferramentas granularFerramenta BashFerramenta de execução de códigoChamada de ferramentas programáticaFerramenta de uso de computadorFerramenta de editor de textoFerramenta de busca na webFerramenta de pesquisa na webFerramenta de memóriaFerramenta de busca de ferramentas
    Habilidades de agente
    Visão geralInício rápidoMelhores práticasHabilidades para empresasUsando habilidades com a API
    Agent SDK
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (prévia)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishotshot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Encadear prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptManter Claude em personagem
    Administração e monitoramento
    Visão geral da API AdminResidência de dadosEspaços de trabalhoAPI de uso e custoAPI de análise de código ClaudeRetenção zero de dados
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Capacidades

    Processamento em lote

    Processamento em lote é uma abordagem poderosa para lidar com grandes volumes de requisições de forma eficiente.

    Was this page helpful?

    • Como funciona a API Message Batches
    • Limitações de lote
    • Modelos suportados
    • O que pode ser agrupado em lote
    • Preços
    • Como usar a API Message Batches
    • Prepare e crie seu lote
    • Rastreando seu lote
    • Listando todos os Message Batches
    • Recuperando resultados do lote
    • Cancelando um Message Batch
    • Usando cache de prompt com Message Batches
    • Melhores práticas para lotes eficazes
    • Solução de problemas comuns
    • Armazenamento e privacidade de lotes
    • Perguntas frequentes

    Processamento em lote é uma abordagem poderosa para lidar com grandes volumes de requisições de forma eficiente. Em vez de processar requisições uma de cada vez com respostas imediatas, o processamento em lote permite que você envie múltiplas requisições juntas para processamento assíncrono. Este padrão é particularmente útil quando:

    • Você precisa processar grandes volumes de dados
    • Respostas imediatas não são necessárias
    • Você quer otimizar para eficiência de custo
    • Você está executando avaliações ou análises em larga escala

    A API Message Batches é nossa primeira implementação deste padrão.


    API Message Batches

    A API Message Batches é uma forma poderosa e econômica de processar de forma assíncrona grandes volumes de requisições de Messages. Esta abordagem é bem adequada para tarefas que não requerem respostas imediatas, com a maioria dos lotes sendo concluída em menos de 1 hora, enquanto reduz custos em 50% e aumenta a taxa de transferência.

    Você pode explorar a referência da API diretamente, além deste guia.

    Como funciona a API Message Batches

    Quando você envia uma requisição para a API Message Batches:

    1. O sistema cria um novo Message Batch com as requisições de Messages fornecidas.
    2. O lote é então processado de forma assíncrona, com cada requisição sendo tratada independentemente.
    3. Você pode fazer polling para o status do lote e recuperar resultados quando o processamento tiver terminado para todas as requisições.

    Isto é especialmente útil para operações em massa que não requerem resultados imediatos, como:

    • Avaliações em larga escala: Processe milhares de casos de teste de forma eficiente.
    • Moderação de conteúdo: Analise grandes volumes de conteúdo gerado pelo usuário de forma assíncrona.
    • Análise de dados: Gere insights ou resumos para grandes conjuntos de dados.
    • Geração de conteúdo em massa: Crie grandes quantidades de texto para vários fins (por exemplo, descrições de produtos, resumos de artigos).

    Limitações de lote

    • Um Message Batch é limitado a 100.000 requisições de Message ou 256 MB de tamanho, o que for atingido primeiro.
    • Processamos cada lote o mais rápido possível, com a maioria dos lotes sendo concluída em 1 hora. Você poderá acessar os resultados do lote quando todas as mensagens tiverem sido concluídas ou após 24 horas, o que vier primeiro. Os lotes expirarão se o processamento não for concluído em 24 horas.
    • Os resultados do lote estão disponíveis por 29 dias após a criação. Depois disso, você ainda pode visualizar o Batch, mas seus resultados não estarão mais disponíveis para download.
    • Os lotes estão no escopo de um Workspace. Você pode visualizar todos os lotes—e seus resultados—que foram criados dentro do Workspace ao qual sua chave de API pertence.
    • Os limites de taxa se aplicam tanto às requisições HTTP da API Batches quanto ao número de requisições dentro de um lote aguardando para serem processadas. Veja Limites de taxa da API Message Batches. Além disso, podemos desacelerar o processamento com base na demanda atual e no volume de suas requisições. Nesse caso, você pode ver mais requisições expirando após 24 horas.
    • Devido à alta taxa de transferência e processamento concorrente, os lotes podem ultrapassar ligeiramente o limite de gastos configurado do seu Workspace.

    Modelos suportados

    Todos os modelos ativos suportam a API Message Batches.

    O que pode ser agrupado em lote

    Qualquer requisição que você possa fazer para a API Messages pode ser incluída em um lote. Isto inclui:

    • Visão
    • Uso de ferramentas
    • Mensagens do sistema
    • Conversas multi-turno
    • Qualquer recurso beta

    Como cada requisição no lote é processada independentemente, você pode misturar diferentes tipos de requisições dentro de um único lote.

    Como os lotes podem levar mais de 5 minutos para processar, considere usar a duração de cache de 1 hora com cache de prompt para melhores taxas de acerto de cache ao processar lotes com contexto compartilhado.


    Preços

    A API Batches oferece economias significativas de custos. Todo o uso é cobrado a 50% dos preços padrão da API.

    ModelBatch inputBatch output
    Claude Opus 4.6$2.50 / MTok$12.50 / MTok
    Claude Opus 4.5$2.50 / MTok$12.50 / MTok
    Claude Opus 4.1$7.50 / MTok$37.50 / MTok
    Claude Opus 4$7.50 / MTok$37.50 / MTok
    Claude Sonnet 4.5$1.50 / MTok$7.50 / MTok
    Claude Sonnet 4$1.50 / MTok$7.50 / MTok
    Claude Sonnet 3.7 (deprecated)$1.50 / MTok$7.50 / MTok
    Claude Haiku 4.5$0.50 / MTok$2.50 / MTok
    Claude Haiku 3.5

    Como usar a API Message Batches

    Prepare e crie seu lote

    Um Message Batch é composto por uma lista de requisições para criar uma Message. A forma de uma requisição individual é composta por:

    • Um custom_id único para identificar a requisição de Messages
    • Um objeto params com os parâmetros padrão da API Messages

    Você pode criar um lote passando esta lista para o parâmetro requests:

    Neste exemplo, duas requisições separadas são agrupadas em lote para processamento assíncrono. Cada requisição tem um custom_id único e contém os parâmetros padrão que você usaria para uma chamada da API Messages.

    Teste suas requisições de lote com a API Messages

    A validação do objeto params para cada requisição de mensagem é realizada de forma assíncrona, e os erros de validação são retornados quando o processamento de todo o lote terminou. Você pode garantir que está construindo sua entrada corretamente verificando a forma de sua requisição com a API Messages primeiro.

    Quando um lote é criado pela primeira vez, a resposta terá um status de processamento de in_progress.

    JSON
    {
      "id": "msgbatch_01HkcTjaV5uDC8jWR4ZsDV8d",
      "type": "message_batch",
      "processing_status": "in_progress",
      "request_counts": {
        "processing": 2,
        "succeeded": 0,
        "errored": 0,
        "canceled": 0,
        "expired": 0
      },
      "ended_at": null,
      "created_at": "2024-09-24T18:37:24.100435Z",
      "expires_at": "2024-09-25T18:37:24.100435Z",
      "cancel_initiated_at": null,
      "results_url": null
    }

    Rastreando seu lote

    O campo processing_status do Message Batch indica o estágio em que o processamento do lote se encontra. Começa como in_progress, depois é atualizado para ended uma vez que todas as requisições no lote terminaram de processar e os resultados estão prontos. Você pode monitorar o estado do seu lote visitando o Console, ou usando o endpoint de recuperação.

    Fazendo polling para conclusão do Message Batch

    Para fazer polling de um Message Batch, você precisará de seu id, que é fornecido na resposta ao criar um lote ou listando lotes. Você pode implementar um loop de polling que verifica o status do lote periodicamente até que o processamento tenha terminado:

    Listando todos os Message Batches

    Você pode listar todos os Message Batches em seu Workspace usando o endpoint de listagem. A API suporta paginação, buscando automaticamente páginas adicionais conforme necessário:

    Recuperando resultados do lote

    Uma vez que o processamento do lote terminou, cada requisição de Messages no lote terá um resultado. Existem 4 tipos de resultado:

    Tipo de ResultadoDescrição
    succeededA requisição foi bem-sucedida. Inclui o resultado da mensagem.
    erroredA requisição encontrou um erro e uma mensagem não foi criada. Os erros possíveis incluem requisições inválidas e erros internos do servidor. Você não será cobrado por essas requisições.
    canceledO usuário cancelou o lote antes que essa requisição pudesse ser enviada para o modelo. Você não será cobrado por essas requisições.
    expiredO lote atingiu sua expiração de 24 horas antes que essa requisição pudesse ser enviada para o modelo. Você não será cobrado por essas requisições.

    Você verá uma visão geral de seus resultados com o request_counts do lote, que mostra quantas requisições atingiram cada um desses quatro estados.

    Os resultados do lote estão disponíveis para download na propriedade results_url no Message Batch, e se a permissão da organização permitir, no Console. Devido ao tamanho potencialmente grande dos resultados, é recomendado fazer streaming dos resultados em vez de baixá-los todos de uma vez.

    Os resultados estarão em formato .jsonl, onde cada linha é um objeto JSON válido representando o resultado de uma única requisição no Message Batch. Para cada resultado transmitido, você pode fazer algo diferente dependendo de seu custom_id e tipo de resultado. Aqui está um exemplo de conjunto de resultados:

    .jsonl file
    {"custom_id":"my-second-request","result":{"type":"succeeded","message":{"id":"msg_014VwiXbi91y3JMjcpyGBHX5","type":"message","role":"assistant","model":"claude-opus-4-6","content":[{"type":"text","text":"Hello again! It's nice to see you. How can I assist you today? Is there anything specific you'd like to chat about or any questions you have?"}],"stop_reason":"end_turn","stop_sequence":null,"usage":{"input_tokens":11,"output_tokens":36}}}}
    {"custom_id":"my-first-request","result":{"type":"succeeded","message":{"id":"msg_01FqfsLoHwgeFbguDgpz48m7","type":"message","role":"assistant","model":"claude-opus-4-6","content":[{"type":"text","text":"Hello! How can I assist you today? Feel free to ask me any questions or let me know if there's anything you'd like to chat about."}],"stop_reason":"end_turn","stop_sequence":null,"usage":{"input_tokens":10,"output_tokens":34}}}}

    Se seu resultado tiver um erro, seu result.error será definido para nossa forma de erro padrão.

    Os resultados do lote podem não corresponder à ordem de entrada

    Os resultados do lote podem ser retornados em qualquer ordem e podem não corresponder à ordem das requisições quando o lote foi criado. No exemplo acima, o resultado para a segunda requisição do lote é retornado antes da primeira. Para corresponder corretamente os resultados com suas requisições correspondentes, sempre use o campo custom_id.

    Cancelando um Message Batch

    Você pode cancelar um Message Batch que está sendo processado usando o endpoint de cancelamento. Imediatamente após o cancelamento, o processing_status de um lote será canceling. Você pode usar a mesma técnica de polling descrita acima para aguardar até que o cancelamento seja finalizado. Os lotes cancelados terminam com um status de ended e podem conter resultados parciais para requisições que foram processadas antes do cancelamento.

    A resposta mostrará o lote em um estado canceling:

    JSON
    {
      "id": "msgbatch_013Zva2CMHLNnXjNJJKqJ2EF",
      "type": "message_batch",
      "processing_status": "canceling",
      "request_counts": {
        "processing": 2,
        "succeeded": 0,
        "errored": 0,
        "canceled": 0,
        "expired": 0
      },
      "ended_at": null,
      "created_at": "2024-09-24T18:37:24.100435Z",
      "expires_at": "2024-09-25T18:37:24.100435Z",
      "cancel_initiated_at": "2024-09-24T18:39:03.114875Z",
      "results_url": null
    }

    Usando cache de prompt com Message Batches

    A API Message Batches suporta cache de prompt, permitindo que você reduza potencialmente custos e tempo de processamento para solicitações em lote. Os descontos de preço do cache de prompt e Message Batches podem se acumular, fornecendo economias de custo ainda maiores quando ambos os recursos são usados juntos. No entanto, como as solicitações em lote são processadas de forma assíncrona e simultânea, os acertos de cache são fornecidos com base no melhor esforço. Os usuários normalmente experimentam taxas de acerto de cache variando de 30% a 98%, dependendo de seus padrões de tráfego.

    Para maximizar a probabilidade de acertos de cache em suas solicitações em lote:

    1. Inclua blocos cache_control idênticos em cada solicitação de Message dentro do seu lote
    2. Mantenha um fluxo constante de solicitações para evitar que as entradas de cache expirem após seu tempo de vida de 5 minutos
    3. Estruture suas solicitações para compartilhar o máximo possível de conteúdo em cache

    Exemplo de implementação de cache de prompt em um lote:

    Neste exemplo, ambas as solicitações no lote incluem mensagens de sistema idênticas e o texto completo de Pride and Prejudice marcado com cache_control para aumentar a probabilidade de acertos de cache.

    Melhores práticas para lotes eficazes

    Para aproveitar ao máximo a API Batches:

    • Monitore o status de processamento do lote regularmente e implemente lógica de repetição apropriada para solicitações com falha.
    • Use valores custom_id significativos para corresponder facilmente resultados com solicitações, já que a ordem não é garantida.
    • Considere dividir conjuntos de dados muito grandes em múltiplos lotes para melhor gerenciabilidade.
    • Faça uma execução de teste com uma única forma de solicitação com a API Messages para evitar erros de validação.

    Solução de problemas comuns

    Se estiver experimentando comportamento inesperado:

    • Verifique se o tamanho total da solicitação em lote não excede 256 MB. Se o tamanho da solicitação for muito grande, você pode receber um erro 413 request_too_large.
    • Verifique se você está usando modelos suportados para todas as solicitações no lote.
    • Certifique-se de que cada solicitação no lote tenha um custom_id único.
    • Certifique-se de que menos de 29 dias tenham passado desde o tempo de created_at do lote (não o tempo de ended_at de processamento). Se mais de 29 dias tiverem passado, os resultados não serão mais visualizáveis.
    • Confirme que o lote não foi cancelado.

    Observe que a falha de uma solicitação em um lote não afeta o processamento de outras solicitações.


    Armazenamento e privacidade de lotes

    • Isolamento de Workspace: Os lotes são isolados dentro do Workspace em que foram criados. Eles podem ser acessados apenas por chaves de API associadas a esse Workspace, ou por usuários com permissão para visualizar lotes do Workspace no Console.

    • Disponibilidade de resultados: Os resultados do lote estão disponíveis por 29 dias após a criação do lote, permitindo tempo amplo para recuperação e processamento.


    Perguntas frequentes

    $0.40 / MTok
    $2 / MTok
    Claude Opus 3 (deprecated)$7.50 / MTok$37.50 / MTok
    Claude Haiku 3$0.125 / MTok$0.625 / MTok
    curl https://api.anthropic.com/v1/messages/batches \
         --header "x-api-key: $ANTHROPIC_API_KEY" \
         --header "anthropic-version: 2023-06-01" \
         --header "content-type: application/json" \
         --data \
    '{
        "requests": [
            {
                "custom_id": "my-first-request",
                "params": {
                    "model": "claude-opus-4-6",
                    "max_tokens": 1024,
                    "messages": [
                        {"role": "user", "content": "Hello, world"}
                    ]
                }
            },
            {
                "custom_id": "my-second-request",
                "params": {
                    "model": "claude-opus-4-6",
                    "max_tokens": 1024,
                    "messages": [
                        {"role": "user", "content": "Hi again, friend"}
                    ]
                }
            }
        ]
    }'
    import anthropic
    import time
    
    client = anthropic.Anthropic()
    
    message_batch = None
    while True:
        message_batch = client.messages.batches.retrieve(
            MESSAGE_BATCH_ID
        )
        if message_batch.processing_status == "ended":
            break
    
        print(f"Batch {MESSAGE_BATCH_ID} is still processing...")
        time.sleep(60)
    print(message_batch)
    import anthropic
    
    client = anthropic.Anthropic()
    
    # Automatically fetches more pages as needed.
    for message_batch in client.messages.batches.list(
        limit=20
    ):
        print(message_batch)
    #!/bin/sh
    curl "https://api.anthropic.com/v1/messages/batches/msgbatch_01HkcTjaV5uDC8jWR4ZsDV8d" \
      --header "anthropic-version: 2023-06-01" \
      --header "x-api-key: $ANTHROPIC_API_KEY" \
      | grep -o '"results_url":[[:space:]]*"[^"]*"' \
      | cut -d'"' -f4 \
      | while read -r url; do
        curl -s "$url" \
          --header "anthropic-version: 2023-06-01" \
          --header "x-api-key: $ANTHROPIC_API_KEY" \
          | sed 's/}{/}\n{/g' \
          | while IFS= read -r line
        do
          result_type=$(echo "$line" | sed -n 's/.*"result":[[:space:]]*{[[:space:]]*"type":[[:space:]]*"\([^"]*\)".*/\1/p')
          custom_id=$(echo "$line" | sed -n 's/.*"custom_id":[[:space:]]*"\([^"]*\)".*/\1/p')
          error_type=$(echo "$line" | sed -n 's/.*"error":[[:space:]]*{[[:space:]]*"type":[[:space:]]*"\([^"]*\)".*/\1/p')
    
          case "$result_type" in
            "succeeded")
              echo "Success! $custom_id"
              ;;
            "errored")
              if [ "$error_type" = "invalid_request" ]; then
                # Request body must be fixed before re-sending request
                echo "Validation error: $custom_id"
              else
                # Request can be retried directly
                echo "Server error: $custom_id"
              fi
              ;;
            "expired")
              echo "Expired: $line"
              ;;
          esac
        done
      done
    
    import anthropic
    
    client = anthropic.Anthropic()
    
    message_batch = client.messages.batches.cancel(
        MESSAGE_BATCH_ID,
    )
    print(message_batch)
    curl https://api.anthropic.com/v1/messages/batches \
         --header "x-api-key: $ANTHROPIC_API_KEY" \
         --header "anthropic-version: 2023-06-01" \
         --header "content-type: application/json" \
         --data \
    '{
        "requests": [
            {
                "custom_id": "my-first-request",
                "params": {
                    "model": "claude-opus-4-6",
                    "max_tokens": 1024,
                    "system": [
                        {
                            "type": "text",
                            "text": "You are an AI assistant tasked with analyzing literary works. Your goal is to provide insightful commentary on themes, characters, and writing style.\n"
                        },
                        {
                            "type": "text",
                            "text": "<the entire contents of Pride and Prejudice>",
                            "cache_control": {"type": "ephemeral"}
                        }
                    ],
                    "messages": [
                        {"role": "user", "content": "Analyze the major themes in Pride and Prejudice."}
                    ]
                }
            },
            {
                "custom_id": "my-second-request",
                "params": {
                    "model": "claude-opus-4-6",
                    "max_tokens": 1024,
                    "system": [
                        {
                            "type": "text",
                            "text": "You are an AI assistant tasked with analyzing literary works. Your goal is to provide insightful commentary on themes, characters, and writing style.\n"
                        },
                        {
                            "type": "text",
                            "text": "<the entire contents of Pride and Prejudice>",
                            "cache_control": {"type": "ephemeral"}
                        }
                    ],
                    "messages": [
                        {"role": "user", "content": "Write a summary of Pride and Prejudice."}
                    ]
                }
            }
        ]
    }'