Was this page helpful?
This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.
El pensamiento extendido proporciona a Claude capacidades mejoradas de razonamiento para tareas complejas, mientras proporciona diferentes niveles de transparencia en su proceso de pensamiento paso a paso antes de entregar su respuesta final.
Para Claude Opus 4.7 y modelos posteriores, usa pensamiento adaptativo (thinking: {type: "adaptive"}) con el parámetro de esfuerzo. El pensamiento extendido manual (thinking: {type: "enabled", budget_tokens: N}) ya no es compatible con Claude Opus 4.7 o modelos posteriores y devuelve un error 400. Para Claude Opus 4.6 y Claude Sonnet 4.6, también se recomienda el pensamiento adaptativo; la configuración manual sigue siendo funcional en estos modelos pero está deprecada y se eliminará en una futura versión del modelo.
El pensamiento extendido manual (thinking: {type: "enabled", budget_tokens: N}) es compatible con todos los modelos Claude actuales excepto Claude Opus 4.7 y modelos posteriores, donde ya no se acepta y devuelve un error 400. Algunos modelos tienen comportamiento específico del modo:
claude-opus-4-7) y modelos posteriores: el pensamiento extendido manual ya no es compatible. Usa pensamiento adaptativo (thinking: {type: "adaptive"}) con el parámetro de esfuerzo en su lugar.thinking: {type: "enabled", budget_tokens: N} también se acepta. thinking: {type: "disabled"} no es compatible, y display tiene como valor predeterminado "omitted" en lugar de devolver contenido de pensamiento. Pasa display: "summarized" para recibir resúmenes.claude-opus-4-6): pensamiento adaptativo recomendado; el modo manual (type: "enabled") está deprecado pero sigue siendo funcional.claude-sonnet-4-6): pensamiento adaptativo recomendado; el modo manual (type: "enabled") con modo intercalado está deprecado pero sigue siendo funcional.El comportamiento de la API difiere entre Claude Sonnet 3.7 y los modelos Claude 4, pero las formas de la API siguen siendo exactamente iguales.
Para más información, consulta Diferencias en el pensamiento entre versiones de modelos.
Cuando el pensamiento extendido está activado, Claude crea bloques de contenido thinking donde genera su razonamiento interno. Claude incorpora información de este razonamiento antes de elaborar una respuesta final.
La respuesta de la API incluye bloques de contenido thinking, seguidos de bloques de contenido text.
Aquí hay un ejemplo del formato de respuesta predeterminado:
{
"content": [
{
"type": "thinking",
"thinking": "Let me analyze this step by step...",
"signature": "WaUjzkypQ2mUEVM36O2TxuC06KN8xyfbJwyem2dw3URve/op91XWHOEBLLqIOMfFG/UvLEczmEsUjavL...."
},
{
"type": "text",
"text": "Based on my analysis..."
}
]
}Para más información sobre el formato de respuesta del pensamiento extendido, consulta la Referencia de la API de Mensajes.
Aquí hay un ejemplo de uso del pensamiento extendido en la API de Mensajes:
Para activar el pensamiento extendido, añade un objeto thinking, con el parámetro type establecido en enabled y budget_tokens en un presupuesto de tokens especificado para el pensamiento extendido. Para Claude Opus 4.6 y Claude Sonnet 4.6, usa type: "adaptive" en su lugar. Consulta Pensamiento adaptativo para más detalles. Aunque type: "enabled" con budget_tokens sigue siendo funcional en estos modelos, está deprecado y se eliminará en una futura versión.
El parámetro budget_tokens determina el número máximo de tokens que Claude puede usar para su proceso de razonamiento interno. En Claude 4 y modelos posteriores, este límite se aplica a los tokens de pensamiento completo, y no a la salida resumida. Los presupuestos más grandes pueden mejorar la calidad de la respuesta al permitir un análisis más exhaustivo para problemas complejos, aunque Claude puede no usar todo el presupuesto asignado, especialmente en rangos superiores a 32k.
budget_tokens está deprecado en Claude Opus 4.6 y Claude Sonnet 4.6 y se eliminará en una futura versión del modelo. Usa pensamiento adaptativo con el parámetro de esfuerzo para controlar la profundidad del pensamiento en su lugar.
Claude Mythos Preview, Claude Opus 4.7 y Claude Opus 4.6 admiten hasta 128k tokens de salida. Claude Sonnet 4.6 y Claude Haiku 4.5 admiten hasta 64k. Consulta la descripción general de modelos para límites en modelos heredados. En la API de Lotes de Mensajes, el encabezado beta output-300k-2026-03-24 aumenta el límite de salida a 300k para Opus 4.7, Opus 4.6 y Sonnet 4.6.
budget_tokens debe establecerse en un valor menor que max_tokens. Sin embargo, cuando se usa pensamiento intercalado con herramientas, puedes exceder este límite ya que el límite de tokens se convierte en tu ventana de contexto completa.
With extended thinking enabled, the Messages API for Claude 4 models returns a summary of Claude's full thinking process. Summarized thinking provides the full intelligence benefits of extended thinking, while preventing misuse. This is the default behavior on Claude 4 models when the display field on the thinking configuration is unset or set to "summarized". On Claude Opus 4.7 and Claude Mythos Preview, display defaults to "omitted" instead, so you must set display: "summarized" explicitly to receive summarized thinking.
Here are some important considerations for summarized thinking:
Claude Sonnet 3.7 continues to return full thinking output.
In rare cases where you need access to full thinking output for Claude 4 models, contact our sales team.
The display field on the thinking configuration controls how thinking content is returned in API responses. It accepts two values:
"summarized": Thinking blocks contain summarized thinking text. See Summarized thinking for details. This is the default on Claude Opus 4.6, Claude Sonnet 4.6, and earlier Claude 4 models."omitted": Thinking blocks are returned with an empty thinking field. The signature field still carries the encrypted full thinking for multi-turn continuity (see Thinking encryption). This is the default on Claude Opus 4.7 and Claude Mythos Preview.Setting display: "omitted" is useful when your application doesn't surface thinking content to users. The primary benefit is faster time-to-first-text-token when streaming: The server skips streaming thinking tokens entirely and delivers only the signature, so the final text response begins streaming sooner.
No SDK currently includes display in its type definitions. The Python SDK forwards unrecognized dict keys to the API at runtime; passing display in the thinking dict works transparently. The TypeScript SDK requires a type assertion. The C#, Go, Java, PHP, and Ruby SDKs require a direct HTTP request until native support lands.
Here are some important considerations for omitted thinking:
signature to reconstruct the original thinking for prompt construction (see Preserving thinking blocks). Any text you place in the thinking field of a round-tripped omitted block is ignored.display is invalid with thinking.type: "disabled" (there is nothing to display).thinking.type: "adaptive" and the model skips thinking for a simple request, no thinking block is produced regardless of display.The signature field is identical whether display is "summarized" or "omitted". Switching display values between turns in a conversation is supported.
En Claude Mythos Preview, display tiene como valor predeterminado "omitted". Los ejemplos en esta sección pasan display explícitamente para que se apliquen a todos los modelos, pero en Mythos Preview puedes dejarlo sin establecer y recibir el mismo comportamiento. Para recibir pensamiento resumido en Mythos Preview, establece display: "summarized" explícitamente.
Los pipelines automatizados que nunca muestran contenido de pensamiento a los usuarios finales pueden omitir la sobrecarga de recibir tokens de pensamiento por cable. Las aplicaciones sensibles a la latencia obtienen la misma calidad de razonamiento sin esperar a que el texto de pensamiento se transmita antes de que comience la respuesta final.
Cuando display: "omitted" está establecido, la respuesta contiene bloques thinking con un campo thinking vacío:
{
"content": [
{
"type": "thinking",
"thinking": "",
"signature": "EosnCkYICxIMMb3LzNrMu..."
},
{
"type": "text",
"text": "The answer is 12,231."
}
]
}Cuando se transmite con display: "omitted", no se emiten eventos thinking_delta; consulta Pensamiento en transmisión a continuación para la secuencia de eventos.
Puedes hacer streaming de respuestas de pensamiento extendido usando eventos enviados por el servidor (SSE).
Cuando el streaming está habilitado para pensamiento extendido, recibes contenido de pensamiento a través de eventos thinking_delta.
Cuando se establece display: "omitted", no se emiten eventos thinking_delta. Consulta Controlando la visualización del pensamiento.
Para más documentación sobre streaming a través de la API de Messages, consulta Streaming de Messages.
Aquí te mostramos cómo manejar el streaming con pensamiento:
Ejemplo de salida de streaming:
event: message_start
data: {"type": "message_start", "message": {"id": "msg_01...", "type": "message", "role": "assistant", "content": [], "model": "claude-sonnet-4-6", "stop_reason": null, "stop_sequence": null}}
event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "thinking", "thinking": "", "signature": ""}}
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "I need to find the GCD of 1071 and 462 using the Euclidean algorithm.\n\n1071 = 2 × 462 + 147"}}
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "\n462 = 3 × 147 + 21\n147 = 7 × 21 + 0\n\nSo GCD(1071, 462) = 21"}}
// Additional thinking deltas...
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "signature_delta", "signature": "EqQBCgIYAhIM1gbcDa9GJwZA2b3hGgxBdjrkzLoky3dl1pkiMOYds..."}}
event: content_block_stop
data: {"type": "content_block_stop", "index": 0}
event: content_block_start
data: {"type": "content_block_start", "index": 1, "content_block": {"type": "text", "text": ""}}
event: content_block_delta
data: {"type": "content_block_delta", "index": 1, "delta": {"type": "text_delta", "text": "The greatest common divisor of 1071 and 462 is **21**."}}
// Additional text deltas...
event: content_block_stop
data: {"type": "content_block_stop", "index": 1}
event: message_delta
data: {"type": "message_delta", "delta": {"stop_reason": "end_turn", "stop_sequence": null}}
event: message_stop
data: {"type": "message_stop"}Cuando se establece display: "omitted", el bloque de pensamiento se abre, llega un único signature_delta, y el bloque se cierra sin ningún evento thinking_delta. El streaming de texto comienza inmediatamente después:
event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"thinking","thinking":"","signature":""}}
event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"signature_delta","signature":"EosnCkYICxIMMb3LzNrMu..."}}
event: content_block_stop
data: {"type":"content_block_stop","index":0}
event: content_block_start
data: {"type":"content_block_start","index":1,"content_block":{"type":"text","text":""}}Cuando uses streaming con pensamiento extendido habilitado, podrías notar que el texto a veces llega en fragmentos más grandes alternando con entregas token por token más pequeñas. Este es un comportamiento esperado, especialmente para contenido de pensamiento.
El sistema de streaming necesita procesar contenido en lotes para un rendimiento óptimo, lo que puede resultar en este patrón de entrega "fragmentada", con posibles retrasos entre eventos de streaming. Anthropic está trabajando continuamente para mejorar esta experiencia, con futuras actualizaciones enfocadas en hacer que el contenido de pensamiento se transmita de manera más fluida.
El pensamiento extendido se puede usar junto con uso de herramientas, permitiendo que Claude razone a través de la selección de herramientas y el procesamiento de resultados.
Cuando uses pensamiento extendido con uso de herramientas, ten en cuenta las siguientes limitaciones:
Limitación de elección de herramienta: El uso de herramientas con pensamiento solo admite tool_choice: {"type": "auto"} (el predeterminado) o tool_choice: {"type": "none"}. Usar tool_choice: {"type": "any"} o tool_choice: {"type": "tool", "name": "..."} resultará en un error porque estas opciones fuerzan el uso de herramientas, que es incompatible con el pensamiento extendido.
Preservando bloques de pensamiento: Durante el uso de herramientas, debes pasar bloques de thinking de vuelta a la API para el último mensaje del asistente. Incluye el bloque completo sin modificar de vuelta a la API para mantener la continuidad del razonamiento.
No puedes alternar el pensamiento en medio de un turno del asistente, incluyendo durante bucles de uso de herramientas. El turno completo del asistente debe operar en un único modo de pensamiento:
Desde la perspectiva del modelo, los bucles de uso de herramientas son parte del turno del asistente. Un turno del asistente no se completa hasta que Claude termina su respuesta completa, que puede incluir múltiples llamadas de herramientas y resultados.
Por ejemplo, esta secuencia es toda parte de un único turno del asistente:
User: "What's the weather in Paris?"
Assistant: [thinking] + [tool_use: get_weather]
User: [tool_result: "20°C, sunny"]
Assistant: [text: "The weather in Paris is 20°C and sunny"]Aunque hay múltiples mensajes de API, el bucle de uso de herramientas es conceptualmente parte de una respuesta continua del asistente.
Cuando ocurre un conflicto de pensamiento a mitad de turno (como alternar el pensamiento activado o desactivado durante un bucle de uso de herramientas), la API desactiva automáticamente el pensamiento para esa solicitud. Para preservar la calidad del modelo y mantenerse en distribución, la API puede:
Esto significa que intentar alternar el pensamiento a mitad de turno no causará un error, pero el pensamiento se desactivará silenciosamente para esa solicitud. Para confirmar si el pensamiento estuvo activo, verifica la presencia de bloques thinking en la respuesta.
Mejor práctica: Planifica tu estrategia de pensamiento al inicio de cada turno en lugar de intentar alternar a mitad de turno.
Ejemplo: Alternar pensamiento después de completar un turno
User: "What's the weather?"
Assistant: [tool_use] (thinking disabled)
User: [tool_result]
Assistant: [text: "It's sunny"]
User: "What about tomorrow?"
Assistant: [thinking] + [text: "..."] (thinking enabled - new turn)Al completar el turno del asistente antes de alternar el pensamiento, aseguras que el pensamiento esté realmente habilitado para la nueva solicitud.
Alternar modos de pensamiento también invalida el almacenamiento en caché de indicaciones para el historial de mensajes. Para más detalles, consulta la sección Pensamiento extendido con almacenamiento en caché de indicaciones.
Durante el uso de herramientas, debes pasar bloques thinking de vuelta a la API, y debes incluir el bloque completo sin modificar de vuelta a la API. Esto es crítico para mantener el flujo de razonamiento del modelo e integridad de la conversación.
Aunque puedes omitir bloques thinking de turnos anteriores del rol assistant, siempre pasa todos los bloques de pensamiento a la API para cualquier conversación de múltiples turnos. La API:
Cuando alternas modos de pensamiento durante una conversación, recuerda que el turno completo del asistente (incluyendo bucles de uso de herramientas) debe operar en un único modo de pensamiento. Para más detalles, consulta Alternar modos de pensamiento en conversaciones.
Cuando Claude invoca herramientas, está pausando la construcción de una respuesta para esperar información externa. Cuando se devuelven resultados de herramientas, Claude continúa construyendo esa respuesta existente. Esto requiere preservar bloques de pensamiento durante el uso de herramientas, por un par de razones:
Continuidad del razonamiento: Los bloques de pensamiento capturan el razonamiento paso a paso de Claude que llevó a solicitudes de herramientas. Cuando publiques resultados de herramientas, incluir el pensamiento original asegura que Claude pueda continuar su razonamiento desde donde se quedó.
Mantenimiento del contexto: Aunque los resultados de herramientas aparecen como mensajes de usuario en la estructura de la API, son parte de un flujo de razonamiento continuo. Preservar bloques de pensamiento mantiene este flujo conceptual a través de múltiples llamadas de API. Para más información sobre gestión de contexto, consulta la guía sobre ventanas de contexto.
Importante: Cuando proporcionas bloques thinking, la secuencia completa de bloques thinking consecutivos debe coincidir con los resultados generados por el modelo durante la solicitud original; no puedes reorganizar o modificar la secuencia de estos bloques.
El pensamiento extendido con uso de herramientas en modelos Claude 4 admite pensamiento intercalado, que permite a Claude pensar entre llamadas de herramientas y hacer un razonamiento más sofisticado después de recibir resultados de herramientas.
Con pensamiento intercalado, Claude puede:
Soporte de modelo:
interleaved-thinking-2025-05-14 está deprecado en Opus 4.6 y se ignora de forma segura si se incluye.interleaved-thinking-2025-05-14 con pensamiento extendido manual (thinking: {type: "enabled"}) sigue siendo funcional pero está deprecado.Aquí hay algunas consideraciones importantes para el pensamiento intercalado:
budget_tokens puede exceder el parámetro max_tokens, ya que representa el presupuesto total en todos los bloques de pensamiento dentro de un turno del asistente.interleaved-thinking-2025-05-14 en solicitudes a cualquier modelo, sin efecto (excepto Opus 4.7 y Opus 4.6, donde está deprecado e ignorado de forma segura).interleaved-thinking-2025-05-14 a cualquier modelo aparte de Claude Opus 4.7, Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Opus 4.1, Opus 4 (deprecado), Sonnet 4.5, o Sonnet 4 (deprecado), tu solicitud fallará.El almacenamiento en caché de indicaciones con pensamiento tiene varias consideraciones importantes:
Las tareas de pensamiento extendido a menudo tardan más de 5 minutos en completarse. Considera usar la duración de caché de 1 hora para mantener aciertos de caché en sesiones de pensamiento más largas y flujos de trabajo de múltiples pasos.
Eliminación del contexto del bloque de pensamiento
Patrones de invalidación de caché
Aunque los bloques de pensamiento se eliminan para el almacenamiento en caché y los cálculos de contexto, deben preservarse al continuar conversaciones con uso de herramientas, especialmente con pensamiento intercalado.
Cuando se utiliza pensamiento extendido con uso de herramientas, los bloques de pensamiento exhiben un comportamiento de almacenamiento en caché específico que afecta el conteo de tokens:
Cómo funciona:
Flujo de ejemplo detallado:
Solicitud 1:
User: "What's the weather in Paris?"Respuesta 1:
[thinking_block_1] + [tool_use block 1]Solicitud 2:
User: ["What's the weather in Paris?"],
Assistant: [thinking_block_1] + [tool_use block 1],
User: [tool_result_1, cache=True]Respuesta 2:
[thinking_block_2] + [text block 2]La solicitud 2 escribe un caché del contenido de la solicitud (no la respuesta). El caché incluye el mensaje de usuario original, el primer bloque de pensamiento, el bloque de uso de herramienta y el resultado de la herramienta.
Solicitud 3:
User: ["What's the weather in Paris?"],
Assistant: [thinking_block_1] + [tool_use block 1],
User: [tool_result_1, cache=True],
Assistant: [thinking_block_2] + [text block 2],
User: [Text response, cache=True]Para Claude Opus 4.5 y posteriores (incluido Claude Opus 4.6), todos los bloques de pensamiento anteriores se mantienen de forma predeterminada. Para modelos más antiguos, debido a que se incluyó un bloque de usuario sin resultado de herramienta, todos los bloques de pensamiento anteriores se ignoran. Esta solicitud se procesará de la misma manera que:
User: ["What's the weather in Paris?"],
Assistant: [tool_use block 1],
User: [tool_result_1, cache=True],
Assistant: [text block 2],
User: [Text response, cache=True]Puntos clave:
cache_controlEn modelos Claude más antiguos (anteriores a Claude Sonnet 3.7), si la suma de tokens de prompt y max_tokens excedía la ventana de contexto del modelo, el sistema ajustaría automáticamente max_tokens para que se ajustara al límite de contexto. Esto significaba que podías establecer un valor grande de max_tokens y el sistema lo reduciría silenciosamente según fuera necesario.
Con los modelos Claude 3.7 y 4, max_tokens (que incluye tu presupuesto de pensamiento cuando el pensamiento está habilitado) se aplica como un límite estricto. El sistema ahora devolverá un error de validación si los tokens de prompt + max_tokens exceden el tamaño de la ventana de contexto.
Puedes leer la guía sobre ventanas de contexto para un análisis más profundo.
Al calcular el uso de la ventana de contexto con el pensamiento habilitado, hay algunas consideraciones de las que debes ser consciente:
max_tokens para ese turnoEl diagrama a continuación demuestra la gestión especializada de tokens cuando el pensamiento extendido está habilitado:
La ventana de contexto efectiva se calcula como:
context window =
(current input tokens - previous thinking tokens) +
(thinking tokens + encrypted thinking tokens + text output tokens)Utiliza la API de conteo de tokens para obtener conteos de tokens precisos para tu caso de uso específico, especialmente cuando trabajes con conversaciones de múltiples turnos que incluyan pensamiento.
Cuando se utiliza pensamiento extendido con uso de herramientas, los bloques de pensamiento deben preservarse explícitamente y devolverse con los resultados de las herramientas.
El cálculo de la ventana de contexto efectiva para pensamiento extendido con uso de herramientas se convierte en:
context window =
(current input tokens + previous thinking tokens + tool use tokens) +
(thinking tokens + encrypted thinking tokens + text output tokens)El diagrama a continuación ilustra la gestión de tokens para pensamiento extendido con uso de herramientas:
Dado el comportamiento de la ventana de contexto y max_tokens con pensamiento extendido en los modelos Claude 3.7 y 4, es posible que necesites:
max_tokens a medida que cambia la longitud de tu promptEste cambio se ha realizado para proporcionar un comportamiento más predecible y transparente, especialmente a medida que los límites de tokens máximos han aumentado significativamente.
Full thinking content is encrypted and returned in the signature field. This field is used to verify that thinking blocks were generated by Claude when passed back to the API.
It is only strictly necessary to send back thinking blocks when using tools with extended thinking. Otherwise you can omit thinking blocks from previous turns, or let the API strip them for you if you pass them back.
If sending back thinking blocks, we recommend passing everything back as you received it for consistency and to avoid potential issues.
Here are some important considerations on thinking encryption:
signature_delta inside a content_block_delta event just before the content_block_stop event.signature values are significantly longer in Claude 4 models than in previous models.signature field is an opaque field and should not be interpreted or parsed.signature values are compatible across platforms (Claude APIs, Amazon Bedrock, and Vertex AI). Values generated on one platform will be compatible with another.Además de los bloques thinking regulares, la API puede devolver bloques redacted_thinking. Un bloque redacted_thinking contiene contenido de pensamiento cifrado en un campo data, sin resumen legible:
{
"type": "redacted_thinking",
"data": "..."
}El campo data es opaco y está cifrado. Como el campo signature en bloques de pensamiento regulares, debes pasar bloques redacted_thinking de vuelta a la API sin cambios cuando continúes una conversación de múltiples turnos con herramientas.
Si tu código filtra bloques de contenido por tipo (por ejemplo, block.type == "thinking") cuando devuelves respuestas con uso de herramientas, también incluye bloques redacted_thinking. Filtrar solo en block.type == "thinking" elimina silenciosamente bloques redacted_thinking e interrumpe el protocolo de múltiples turnos descrito anteriormente.
Los bloques redacted_thinking son un tipo de bloque de contenido distinto devuelto por la API cuando se redactan por seguridad partes del pensamiento. Esto es separado de la opción display: "omitted", que devuelve bloques thinking regulares con un campo thinking vacío.
La API de Mensajes maneja el pensamiento de manera diferente entre los modelos Claude Sonnet 3.7 y Claude 4, principalmente en el comportamiento de resumen.
Consulta la tabla a continuación para una comparación condensada:
| Característica | Claude Sonnet 3.7 | Modelos Claude 4 (pre-Opus 4.5) | Claude Opus 4.5 | Claude Sonnet 4.6 | Claude Opus 4.6 (pensamiento adaptativo) | Claude Mythos Preview (pensamiento adaptativo) |
|---|---|---|---|---|---|---|
| Salida de Pensamiento | Devuelve salida de pensamiento completa | Devuelve pensamiento resumido | Devuelve pensamiento resumido | Devuelve pensamiento resumido | Devuelve pensamiento resumido | Omitido por defecto; establece display: "summarized" para recibir pensamiento resumido. Los tokens de pensamiento sin procesar nunca se devuelven. |
| Pensamiento Intercalado | No compatible | Compatible con encabezado beta interleaved-thinking-2025-05-14 | Compatible con encabezado beta interleaved-thinking-2025-05-14 |
A partir de Claude Opus 4.5 (y continuando en Claude Opus 4.6), los bloques de pensamiento de turnos anteriores del asistente se preservan en el contexto del modelo por defecto. Esto difiere de los modelos anteriores, que eliminan bloques de pensamiento de turnos anteriores.
Beneficios de la preservación de bloques de pensamiento:
Consideraciones importantes:
Para modelos anteriores (Claude Sonnet 4.5, Opus 4.1, etc.), los bloques de pensamiento de turnos anteriores continúan siendo eliminados del contexto. El comportamiento existente descrito en la sección Pensamiento extendido con almacenamiento en caché de prompts se aplica a esos modelos.
For complete pricing information including base rates, cache writes, cache hits, and output tokens, see the pricing page.
The thinking process incurs charges for:
When extended thinking is enabled, a specialized system prompt is automatically included to support this feature.
When using summarized thinking:
When using display: "omitted":
thinking field is empty)The billed output token count will not match the visible token count in the response. You are billed for the full thinking process, not the thinking content visible in the response.
max_tokens es mayor que 21.333 para evitar tiempos de espera HTTP en solicitudes de larga duración. Esta es una validación del lado del cliente, no una restricción de la API. Si no necesitas procesar eventos incrementalmente, utiliza .stream() con .get_final_message() (Python) o .finalMessage() (TypeScript) para obtener el objeto Message completo sin manejar eventos individuales. Consulta Streaming de Mensajes para obtener detalles. Cuando hagas streaming, prepárate para manejar bloques de contenido de pensamiento y texto a medida que lleguen.display: "omitted" en la configuración de pensamiento para reducir el tiempo hasta el primer token de texto. Consulta Controlando la visualización del pensamiento.temperature o top_k así como con uso forzado de herramientas.top_p a valores entre 1 y 0.95.client = anthropic.Anthropic()
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=16000,
thinking={"type": "enabled", "budget_tokens": 10000},
messages=[
{
"role": "user",
"content": "Are there an infinite number of prime numbers such that n mod 4 == 3?",
}
],
)
# The response contains summarized thinking blocks and text blocks
for block in response.content:
if block.type == "thinking":
print(f"\nThinking summary: {block.thinking}")
elif block.type == "text":
print(f"\nResponse: {block.text}")client = anthropic.Anthropic()
with client.messages.stream(
model="claude-sonnet-4-6",
max_tokens=16000,
thinking={"type": "enabled", "budget_tokens": 10000},
messages=[
{
"role": "user",
"content": "What is the greatest common divisor of 1071 and 462?",
}
],
) as stream:
thinking_started = False
response_started = False
for event in stream:
if event.type == "content_block_start":
print(f"\nStarting {event.content_block.type} block...")
# Reset flags for each new block
thinking_started = False
response_started = False
elif event.type == "content_block_delta":
if event.delta.type == "thinking_delta":
if not thinking_started:
print("Thinking: ", end="", flush=True)
thinking_started = True
print(event.delta.thinking, end="", flush=True)
elif event.delta.type == "text_delta":
if not response_started:
print("Response: ", end="", flush=True)
response_started = True
print(event.delta.text, end="", flush=True)
elif event.type == "content_block_stop":
print("\nBlock complete.")interleaved-thinking-2025-05-14Compatible con encabezado beta interleaved-thinking-2025-05-14 o automático con pensamiento adaptativo |
| Automático con pensamiento adaptativo (encabezado beta no compatible) |
| Automático con pensamiento adaptativo (encabezado beta no compatible). El razonamiento entre herramientas se mueve a bloques de pensamiento en este modelo. |
| Preservación de Bloques de Pensamiento | No preservado entre turnos | No preservado entre turnos | Preservado por defecto | Preservado por defecto | Preservado por defecto | Preservado por defecto. Los bloques se eliminan cuando se continúa la conversación en un modelo que no admite el formato de pensamiento Mythos. |
Aprende mejores prácticas de ingeniería de prompts para pensamiento extendido.