Esta guía está diseñada para dar a Claude los conceptos básicos del uso de la API de Claude. Proporciona explicación y ejemplos de IDs de modelo/la API de mensajes básica, uso de herramientas, streaming, pensamiento extendido, y nada más.
Modelo más inteligente: Claude Opus 4.7: claude-opus-4-7
Modelo inteligente: Claude Sonnet 4.6: claude-sonnet-4-6
Para tareas rápidas y rentables: Claude Haiku 4.5: claude-haiku-4-5-20251001import anthropic
import os
message = anthropic.Anthropic(
api_key=os.environ.get("ANTHROPIC_API_KEY")
).messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[{"role": "user", "content": "Hello, Claude"}],
)
print(message){
"id": "msg_01XFDUDYJgAACzvnptvVoYEL",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Hello!"
}
],
"model": "claude-opus-4-7",
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 12,
"output_tokens": 6
}
}La API de Messages es sin estado, lo que significa que siempre envías el historial conversacional completo a la API. Puedes usar este patrón para construir una conversación a lo largo del tiempo. Los turnos conversacionales anteriores no necesariamente tienen que originarse realmente de Claude. Puedes usar mensajes sintéticos de assistant.
import anthropic
message = anthropic.Anthropic().messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[
{"role": "user", "content": "Hello, Claude"},
{"role": "assistant", "content": "Hello!"},
{"role": "user", "content": "Can you describe LLMs to me?"},
],
)
print(message)Puedes rellenar previamente parte de la respuesta de Claude en la última posición de la lista de mensajes de entrada. Esto se puede usar para dar forma a la respuesta de Claude. El ejemplo a continuación usa "max_tokens": 1 para obtener una única respuesta de opción múltiple de Claude.
message = anthropic.Anthropic().messages.create(
model="claude-sonnet-4-5",
max_tokens=1,
messages=[
{
"role": "user",
"content": "What is latin for Ant? (A) Apoidea, (B) Rhopalocera, (C) Formicidae",
},
{"role": "assistant", "content": "The answer is ("},
],
)Claude puede leer tanto texto como imágenes en solicitudes. Se admiten tanto los tipos de fuente base64 como url para imágenes, junto con los tipos de medios image/jpeg, image/png, image/gif e image/webp.
import anthropic
import base64
import httpx
# Option 1: Base64-encoded image
image_url = "https://upload.wikimedia.org/wikipedia/commons/a/a7/Camponotus_flavomarginatus_ant.jpg"
image_media_type = "image/jpeg"
image_data = base64.standard_b64encode(httpx.get(image_url).content).decode("utf-8")
message = anthropic.Anthropic().messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[
{
"role": "user",
"content": [
{
"type": "image",
"source": {
"type": "base64",
"media_type": image_media_type,
"data": image_data,
},
},
{"type": "text", "text": "What is in the above image?"},
],
}
],
)
# Option 2: URL-referenced image
message_from_url = anthropic.Anthropic().messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[
{
"role": "user",
"content": [
{
"type": "image",
"source": {
"type": "url",
"url": "https://upload.wikimedia.org/wikipedia/commons/a/a7/Camponotus_flavomarginatus_ant.jpg",
},
},
{"type": "text", "text": "What is in the above image?"},
],
}
],
)El pensamiento extendido a veces puede ayudar a Claude con tareas muy difíciles. En modelos anteriores a Claude Opus 4.7, la temperatura debe establecerse en 1 cuando el pensamiento extendido está habilitado.
El pensamiento extendido es compatible con los siguientes modelos:
claude-opus-4-1-20250805)claude-opus-4-20250514)claude-sonnet-4-6)claude-sonnet-4-5-20250929)Cuando el pensamiento extendido está activado, Claude crea bloques de contenido thinking donde genera su razonamiento interno. La respuesta de la API incluirá bloques de contenido thinking, seguidos de bloques de contenido text.
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-opus-4-7",
max_tokens=16000,
thinking={"type": "adaptive", "display": "summarized"},
messages=[
{
"role": "user",
"content": "Are there an infinite number of prime numbers such that n mod 4 == 3?",
}
],
)
# The response will contain summarized thinking blocks and text blocks
for block in response.content:
if block.type == "thinking":
print(f"\nThinking summary: {block.thinking}")
elif block.type == "text":
print(f"\nResponse: {block.text}")El parámetro budget_tokens determina el número máximo de tokens que Claude puede usar para su proceso de razonamiento interno. En los modelos Claude 4, este límite se aplica a los tokens de pensamiento completo, no a la salida resumida. Los presupuestos más grandes pueden mejorar la calidad de la respuesta al permitir un análisis más exhaustivo para problemas complejos. Una regla: el valor de max_tokens debe ser estrictamente mayor que el valor de budget_tokens para que Claude tenga espacio para escribir su respuesta después de que se complete el pensamiento.
El pensamiento extendido se puede usar junto con el uso de herramientas, permitiendo que Claude razone a través de la selección de herramientas y el procesamiento de resultados.
Limitaciones importantes:
tool_choice: {"type": "auto"} (predeterminado) o tool_choice: {"type": "none"}.thinking de vuelta a la API para el último mensaje del asistente.import anthropic
client = anthropic.Anthropic()
weather_tool = {
"name": "get_weather",
"description": "Get the current weather for a location.",
"input_schema": {
"type": "object",
"properties": {"location": {"type": "string", "description": "The city name."}},
"required": ["location"],
},
}
weather_data = {"temperature": 72}
# First request - Claude responds with thinking and tool request
response = client.messages.create(
model="claude-opus-4-7",
max_tokens=16000,
thinking={"type": "adaptive", "display": "summarized"},
tools=[weather_tool],
messages=[{"role": "user", "content": "What's the weather in Paris?"}],
)
# Extract thinking block and tool use block
thinking_block = next(
(block for block in response.content if block.type == "thinking"), None
)
tool_use_block = next(
(block for block in response.content if block.type == "tool_use"), None
)
# Second request - Include thinking block and tool result
continuation = client.messages.create(
model="claude-opus-4-7",
max_tokens=16000,
thinking={"type": "adaptive", "display": "summarized"},
tools=[weather_tool],
messages=[
{"role": "user", "content": "What's the weather in Paris?"},
# Notice that the thinking_block is passed in as well as the tool_use_block
{"role": "assistant", "content": [thinking_block, tool_use_block]},
{
"role": "user",
"content": [
{
"type": "tool_result",
"tool_use_id": tool_use_block.id,
"content": f"Current temperature: {weather_data['temperature']}°F",
}
],
},
],
)El pensamiento extendido con uso de herramientas en modelos Claude 4 admite pensamiento intercalado, que permite a Claude pensar entre llamadas de herramientas. Para habilitar en modelos Claude 4, 4.5 y Sonnet 4.6, agrega el encabezado beta interleaved-thinking-2025-05-14 a tu solicitud de API.
import anthropic
client = anthropic.Anthropic()
calculator_tool = {
"name": "calculator",
"description": "Perform arithmetic calculations.",
"input_schema": {
"type": "object",
"properties": {
"expression": {
"type": "string",
"description": "The math expression to evaluate.",
}
},
"required": ["expression"],
},
}
database_tool = {
"name": "database_query",
"description": "Query the product database.",
"input_schema": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "The database query."}
},
"required": ["query"],
},
}
response = client.beta.messages.create(
model="claude-sonnet-4-6",
max_tokens=16000,
thinking={"type": "enabled", "budget_tokens": 10000},
tools=[calculator_tool, database_tool],
messages=[
{
"role": "user",
"content": "What's the total revenue if we sold 150 units of product A at $50 each?",
}
],
betas=["interleaved-thinking-2025-05-14"],
)Con pensamiento intercalado y SOLO con pensamiento intercalado (no pensamiento extendido regular), el budget_tokens puede exceder el parámetro max_tokens, ya que budget_tokens en este caso representa el presupuesto total en todos los bloques de pensamiento dentro de un turno de asistente.
Para Claude Opus 4.6, el pensamiento intercalado se habilita automáticamente cuando se usa pensamiento adaptativo (thinking: {type: "adaptive"}). No se necesita encabezado beta. Sonnet 4.6 admite tanto el encabezado beta interleaved-thinking-2025-05-14 con pensamiento extendido manual como pensamiento adaptativo.
Las herramientas del cliente se especifican en el parámetro de nivel superior tools de la solicitud de API. Cada definición de herramienta incluye:
| Parámetro | Descripción |
|---|---|
name | El nombre de la herramienta. Debe coincidir con la expresión regular ^[a-zA-Z0-9_-]{1,64}$. |
description | Una descripción detallada en texto plano de qué hace la herramienta, cuándo debe usarse y cómo se comporta. |
input_schema | Un objeto JSON Schema que define los parámetros esperados para la herramienta. |
{
"name": "get_weather",
"description": "Get the current weather in a given location",
"input_schema": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"],
"description": "The unit of temperature, either 'celsius' or 'fahrenheit'"
}
},
"required": ["location"]
}
}Proporciona descripciones extremadamente detalladas. Este es, con mucho, el factor más importante en el rendimiento de la herramienta. Tus descripciones deben explicar cada detalle sobre la herramienta, incluyendo:
Considera usar input_examples para herramientas complejas. Para herramientas con objetos anidados, parámetros opcionales o entradas sensibles al formato, puedes proporcionar ejemplos concretos usando el campo input_examples (beta). Esto ayuda a Claude a entender patrones de entrada esperados. Consulta Proporcionar ejemplos de uso de herramientas para obtener detalles.
Ejemplo de una buena descripción de herramienta:
{
"name": "get_stock_price",
"description": "Retrieves the current stock price for a given ticker symbol. The ticker symbol must be a valid symbol for a publicly traded company on a major US stock exchange like NYSE or NASDAQ. The tool will return the latest trade price in USD. It should be used when the user asks about the current or most recent price of a specific stock. It will not provide any other information about the stock or company.",
"input_schema": {
"type": "object",
"properties": {
"ticker": {
"type": "string",
"description": "The stock ticker symbol, e.g. AAPL for Apple Inc."
}
},
"required": ["ticker"]
}
}Puedes forzar a Claude a usar una herramienta específica especificando la herramienta en el campo tool_choice:
tool_choice = {"type": "tool", "name": "get_weather"}Al trabajar con el parámetro tool_choice, hay cuatro opciones posibles:
auto permite a Claude decidir si llamar a cualquiera de las herramientas proporcionadas o no (predeterminado).any le dice a Claude que debe usar una de las herramientas proporcionadas.tool fuerza a Claude a usar siempre una herramienta particular.none evita que Claude use cualquier herramienta.Las herramientas no necesariamente tienen que ser funciones del cliente. Puedes usar herramientas en cualquier momento que quieras que el modelo devuelva una salida JSON que siga un esquema proporcionado.
Al usar herramientas, Claude a menudo mostrará su "cadena de pensamiento", es decir, el razonamiento paso a paso que usa para desglosar el problema y decidir qué herramientas usar.
{
"role": "assistant",
"content": [
{
"type": "text",
"text": "<thinking>To answer this question, I will: 1. Use the get_weather tool to get the current weather in San Francisco. 2. Use the get_time tool to get the current time in the America/Los_Angeles timezone, which covers San Francisco, CA.</thinking>"
},
{
"type": "tool_use",
"id": "toolu_01A09q90qw90lq917835lq9",
"name": "get_weather",
"input": { "location": "San Francisco, CA" }
}
]
}Por defecto, Claude puede usar múltiples herramientas para responder a una consulta del usuario. Puedes desactivar este comportamiento estableciendo disable_parallel_tool_use=true.
La respuesta tendrá un stop_reason de tool_use y uno o más bloques de contenido tool_use que incluyen:
id: Un identificador único para este bloque de uso de herramienta en particular.name: El nombre de la herramienta que se está utilizando.input: Un objeto que contiene la entrada que se pasa a la herramienta.Cuando recibas una respuesta de uso de herramienta, debes:
name, id e input del bloque tool_use.tool_result:{
"role": "user",
"content": [
{
"type": "tool_result",
"tool_use_id": "toolu_01A09q90qw90lq917835lq9",
"content": "15 degrees"
}
]
}max_tokens stop reasonSi la respuesta de Claude se corta debido a alcanzar el límite max_tokens durante el uso de herramientas, reintenta la solicitud con un valor max_tokens más alto.
pause_turn stop reasonCuando se usan herramientas del servidor como búsqueda web, la API puede devolver un pause_turn stop reason. Continúa la conversación pasando la respuesta pausada tal como está en una solicitud posterior.
Si la herramienta misma genera un error durante la ejecución, devuelve el mensaje de error con "is_error": true:
{
"role": "user",
"content": [
{
"type": "tool_result",
"tool_use_id": "toolu_01A09q90qw90lq917835lq9",
"content": "ConnectionError: the weather service API is not available (HTTP 500)",
"is_error": true
}
]
}Si el intento de Claude de usar una herramienta es inválido (por ejemplo, parámetros requeridos faltantes), intenta la solicitud nuevamente con valores de description más detallados en tus definiciones de herramientas.
Cuando creas un Message, puedes establecer "stream": true para transmitir incrementalmente la respuesta usando eventos enviados por el servidor (SSE).
import anthropic
client = anthropic.Anthropic()
with client.messages.stream(
max_tokens=1024,
messages=[{"role": "user", "content": "Hello"}],
model="claude-opus-4-7",
) as stream:
for text in stream.text_stream:
print(text, end="", flush=True)Cada evento enviado por el servidor incluye un tipo de evento nombrado y datos JSON asociados. Cada stream utiliza el siguiente flujo de eventos:
message_start: contiene un objeto Message con content vacío.content_block_start, uno o más eventos content_block_delta y content_block_stop.message_delta, indicando cambios de nivel superior al objeto Message final.message_stop.Advertencia: Los recuentos de tokens mostrados en el campo usage del evento message_delta son acumulativos.
{
"type": "content_block_delta",
"index": 0,
"delta": { "type": "text_delta", "text": "Hello frien" }
}Para bloques de contenido tool_use, los deltas son cadenas JSON parciales:
{"type": "content_block_delta","index": 1,"delta": {"type": "input_json_delta","partial_json": "{\"location\": \"San Fra"}}Cuando se usa pensamiento extendido con streaming:
{
"type": "content_block_delta",
"index": 0,
"delta": {
"type": "thinking_delta",
"thinking": "Let me solve this step by step..."
}
}event: message_start
data: {"type": "message_start", "message": {"id": "msg_1nZdL29xx5MUA1yADyHTEsnR8uuvGzszyY", "type": "message", "role": "assistant", "content": [], "model": "claude-opus-4-7", "stop_reason": null, "stop_sequence": null, "usage": {"input_tokens": 25, "output_tokens": 1}}}
event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "text", "text": ""}}
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "text_delta", "text": "Hello"}}
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "text_delta", "text": "!"}}
event: content_block_stop
data: {"type": "content_block_stop", "index": 0}
event: message_delta
data: {"type": "message_delta", "delta": {"stop_reason": "end_turn", "stop_sequence":null}, "usage": {"output_tokens": 15}}
event: message_stop
data: {"type": "message_stop"}Was this page helpful?