Latência refere-se ao tempo que leva para o modelo processar um prompt e gerar uma saída. A latência pode ser influenciada por vários fatores, como o tamanho do modelo, a complexidade do prompt e a infraestrutura subjacente que suporta o modelo e o ponto de interação.
É sempre melhor primeiro projetar um prompt que funcione bem sem restrições de modelo ou prompt, e então tentar estratégias de redução de latência depois. Tentar reduzir a latência prematuramente pode impedir que você descubra como é o desempenho máximo.
Ao discutir latência, você pode encontrar vários termos e medições:
Para um entendimento mais aprofundado desses termos, confira nosso glossário.
Uma das maneiras mais diretas de reduzir latência é selecionar o modelo apropriado para seu caso de uso. A Anthropic oferece uma gama de modelos com diferentes capacidades e características de desempenho. Considere seus requisitos específicos e escolha o modelo que melhor se adequa às suas necessidades em termos de velocidade e qualidade de saída.
Para aplicações críticas em velocidade, Claude Haiku 4.5 oferece os tempos de resposta mais rápidos mantendo alta inteligência:
import anthropic
client = anthropic.Anthropic()
# Para aplicações sensíveis ao tempo, use Claude Haiku 4.5
message = client.messages.create(
model="claude-haiku-4-5",
max_tokens=100,
messages=[{
"role": "user",
"content": "Summarize this customer feedback in 2 sentences: [feedback text]"
}]
)Para mais detalhes sobre métricas de modelo, veja nossa página de visão geral dos modelos.
Minimize o número de tokens tanto no seu prompt de entrada quanto na saída esperada, mantendo ainda alto desempenho. Quanto menos tokens o modelo tiver que processar e gerar, mais rápida será a resposta.
Aqui estão algumas dicas para ajudá-lo a otimizar seus prompts e saídas:
max_tokens para definir um limite rígido no comprimento máximo da resposta gerada. Isso impede que Claude gere saídas excessivamente longas.
Nota: Quando a resposta atinge
max_tokenstokens, a resposta será cortada, talvez no meio da frase ou no meio da palavra, então esta é uma técnica grosseira que pode exigir pós-processamento e geralmente é mais apropriada para respostas de múltipla escolha ou respostas curtas onde a resposta vem logo no início.
temperature controla a aleatoriedade da saída. Valores mais baixos (por exemplo, 0.2) às vezes podem levar a respostas mais focadas e mais curtas, enquanto valores mais altos (por exemplo, 0.8) podem resultar em saídas mais diversas mas potencialmente mais longas.Encontrar o equilíbrio certo entre clareza do prompt, qualidade da saída e contagem de tokens pode exigir alguma experimentação.
Streaming é um recurso que permite ao modelo começar a enviar de volta sua resposta antes que a saída completa esteja pronta. Isso pode melhorar significativamente a responsividade percebida da sua aplicação, já que os usuários podem ver a saída do modelo em tempo real.
Com streaming habilitado, você pode processar a saída do modelo conforme ela chega, atualizando sua interface de usuário ou realizando outras tarefas em paralelo. Isso pode melhorar muito a experiência do usuário e fazer sua aplicação parecer mais interativa e responsiva.
Visite streaming Messages para aprender sobre como você pode implementar streaming para seu caso de uso.