Loading...
    • Guía para desarrolladores
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K
    Primeros pasos
    Introducción a ClaudeInicio rápido
    Modelos y precios
    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecación de modelosPrecios
    Construir con Claude
    Descripción general de característicasUsar la API de MessagesVentanas de contextoMejores prácticas de prompting
    Capacidades
    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoEsfuerzoStreaming de MessagesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte de PDFAPI de FilesResultados de búsquedaSalidas estructuradasComplemento de Google Sheets
    Herramientas
    Descripción generalCómo implementar el uso de herramientasUso eficiente de herramientas en tokensStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoLlamada de herramientas programáticaHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de obtención webHerramienta de búsqueda webHerramienta de memoriaHerramienta de búsqueda de herramientas
    Habilidades del agente
    Descripción generalInicio rápidoMejores prácticasUsar habilidades con la API
    SDK del agente
    Descripción generalSDK de TypeScriptSDK de PythonGuía de migración
    Guías
    Entrada de streamingManejo de permisosGestión de sesionesSalidas estructuradas en el SDKAlojamiento del SDK del agenteModificar prompts del sistemaMCP en el SDKHerramientas personalizadasSubagenetes en el SDKComandos de barra en el SDKHabilidades del agente en el SDKSeguimiento de costos y usoListas de tareasComplementos en el SDK
    MCP en la API
    Conector MCPServidores MCP remotos
    Claude en plataformas de terceros
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingeniería de prompts
    Descripción generalGenerador de promptsUsar plantillas de promptsMejorador de promptsSer claro y directoUsar ejemplos (prompting multishot)Dejar que Claude piense (CoT)Usar etiquetas XMLDar un rol a Claude (prompts del sistema)Rellenar la respuesta de ClaudeEncadenar prompts complejosConsejos de contexto largoConsejos de pensamiento extendido
    Probar y evaluar
    Definir criterios de éxitoDesarrollar casos de pruebaUsar la herramienta de evaluaciónReducir latencia
    Fortalecer protecciones
    Reducir alucinacionesAumentar consistencia de salidaMitigar ataques de jailbreakRechazos de streamingReducir fuga de promptsMantener a Claude en personaje
    Administración y monitoreo
    Descripción general de Admin APIAPI de uso y costosAPI de análisis de Claude Code
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Construir con Claude

    Ventanas de contexto

    • Entendiendo la ventana de contexto
    • La ventana de contexto con pensamiento extendido
    • La ventana de contexto con pensamiento extendido y uso de herramientas
    • Ventana de contexto de 1M tokens
    • Conciencia de contexto en Claude Sonnet 4.5 y Haiku 4.5
    • Gestión de ventana de contexto con modelos Claude más nuevos

    Entendiendo la ventana de contexto

    La "ventana de contexto" se refiere a la totalidad de la cantidad de texto que un modelo de lenguaje puede revisar y referenciar al generar nuevo texto, más el nuevo texto que genera. Esto es diferente del gran corpus de datos con el que se entrenó el modelo de lenguaje, y en su lugar representa una "memoria de trabajo" para el modelo. Una ventana de contexto más grande permite al modelo entender y responder a prompts más complejos y largos, mientras que una ventana de contexto más pequeña puede limitar la capacidad del modelo para manejar prompts más largos o mantener coherencia durante conversaciones extendidas.

    El diagrama a continuación ilustra el comportamiento estándar de la ventana de contexto para solicitudes de API1:

    Diagrama de ventana de contexto

    1Para interfaces de chat, como para claude.ai, las ventanas de contexto también pueden configurarse en un sistema rotativo de "primero en entrar, primero en salir".

    • Acumulación progresiva de tokens: A medida que la conversación avanza a través de turnos, cada mensaje del usuario y respuesta del asistente se acumula dentro de la ventana de contexto. Los turnos anteriores se preservan completamente.
    • Patrón de crecimiento lineal: El uso del contexto crece linealmente con cada turno, con los turnos anteriores preservados completamente.
    • Capacidad de 200K tokens: La ventana de contexto total disponible (200,000 tokens) representa la capacidad máxima para almacenar el historial de conversación y generar nueva salida de Claude.
    • Flujo de entrada-salida: Cada turno consiste en:
      • Fase de entrada: Contiene todo el historial de conversación anterior más el mensaje actual del usuario
      • Fase de salida: Genera una respuesta de texto que se convierte en parte de una entrada futura

    La ventana de contexto con pensamiento extendido

    Al usar pensamiento extendido, todos los tokens de entrada y salida, incluyendo los tokens utilizados para pensar, cuentan hacia el límite de la ventana de contexto, con algunos matices en situaciones de múltiples turnos.

    Los tokens del presupuesto de pensamiento son un subconjunto de tu parámetro max_tokens, se facturan como tokens de salida y cuentan hacia los límites de tasa.

    Sin embargo, los bloques de pensamiento anteriores se eliminan automáticamente del cálculo de la ventana de contexto por la API de Claude y no son parte del historial de conversación que el modelo "ve" para turnos subsecuentes, preservando la capacidad de tokens para el contenido real de la conversación.

    El diagrama a continuación demuestra la gestión especializada de tokens cuando el pensamiento extendido está habilitado:

    Diagrama de ventana de contexto con pensamiento extendido

    • Eliminación del pensamiento extendido: Los bloques de pensamiento extendido (mostrados en gris oscuro) se generan durante la fase de salida de cada turno, pero no se llevan adelante como tokens de entrada para turnos subsecuentes. No necesitas eliminar los bloques de pensamiento tú mismo. La API de Claude hace esto automáticamente si los pasas de vuelta.
    • Detalles de implementación técnica:
      • La API excluye automáticamente los bloques de pensamiento de turnos anteriores cuando los pasas de vuelta como parte del historial de conversación.
      • Los tokens de pensamiento extendido se facturan como tokens de salida solo una vez, durante su generación.
      • El cálculo efectivo de la ventana de contexto se convierte en: context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens.
      • Los tokens de pensamiento incluyen tanto bloques thinking como bloques redacted_thinking.

    Esta arquitectura es eficiente en tokens y permite un razonamiento extenso sin desperdicio de tokens, ya que los bloques de pensamiento pueden ser sustanciales en longitud.

    Puedes leer más sobre la ventana de contexto y el pensamiento extendido en nuestra guía de pensamiento extendido.

    La ventana de contexto con pensamiento extendido y uso de herramientas

    El diagrama a continuación ilustra la gestión de tokens de la ventana de contexto al combinar pensamiento extendido con uso de herramientas:

    Diagrama de ventana de contexto con pensamiento extendido y uso de herramientas

    1. 1

      Arquitectura del primer turno

      • Componentes de entrada: Configuración de herramientas y mensaje del usuario
      • Componentes de salida: Pensamiento extendido + respuesta de texto + solicitud de uso de herramienta
      • Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
    2. 2

      Manejo de resultados de herramientas (turno 2)

      • Componentes de entrada: Cada bloque en el primer turno así como el tool_result. El bloque de pensamiento extendido debe ser devuelto con los resultados de herramienta correspondientes. Este es el único caso en el que tienes que devolver bloques de pensamiento.
      • Componentes de salida: Después de que los resultados de herramientas han sido pasados de vuelta a Claude, Claude responderá solo con texto (sin pensamiento extendido adicional hasta el siguiente mensaje de user).
      • Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
    3. 3

      Tercer Paso

    • Consideraciones para el uso de herramientas con pensamiento extendido:
      • Al publicar resultados de herramientas, todo el bloque de pensamiento sin modificar que acompaña esa solicitud específica de herramienta (incluyendo porciones de firma/censuradas) debe ser incluido.
      • El cálculo efectivo de la ventana de contexto para pensamiento extendido con uso de herramientas se convierte en: context_window = input_tokens + current_turn_tokens.
      • El sistema usa firmas criptográficas para verificar la autenticidad del bloque de pensamiento. Fallar en preservar los bloques de pensamiento durante el uso de herramientas puede romper la continuidad de razonamiento de Claude. Por lo tanto, si modificas los bloques de pensamiento, la API devolverá un error.

    Los modelos Claude 4 soportan pensamiento intercalado, que permite a Claude pensar entre llamadas de herramientas y hacer razonamiento más sofisticado después de recibir resultados de herramientas.

    Claude Sonnet 3.7 no soporta pensamiento intercalado, por lo que no hay intercalado de pensamiento extendido y llamadas de herramientas sin un turno de usuario que no sea tool_result en el medio.

    Para más información sobre usar herramientas con pensamiento extendido, ve nuestra guía de pensamiento extendido.

    Ventana de contexto de 1M tokens

    Claude Sonnet 4 y 4.5 soportan una ventana de contexto de 1 millón de tokens. Esta ventana de contexto extendida te permite procesar documentos mucho más grandes, mantener conversaciones más largas y trabajar con bases de código más extensas.

    La ventana de contexto de 1M tokens está actualmente en beta para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. La ventana de contexto de 1M tokens solo está disponible para Claude Sonnet 4 y Sonnet 4.5.

    Para usar la ventana de contexto de 1M tokens, incluye el encabezado beta context-1m-2025-08-07 en tus solicitudes de API:

    Consideraciones importantes:

    • Estado beta: Esta es una característica beta sujeta a cambios. Las características y precios pueden ser modificados o eliminados en versiones futuras.
    • Requisito de nivel de uso: La ventana de contexto de 1M tokens está disponible para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. Las organizaciones de nivel inferior deben avanzar al nivel de uso 4 para acceder a esta característica.
    • Disponibilidad: La ventana de contexto de 1M tokens está actualmente disponible en la API de Claude, Amazon Bedrock, y Vertex AI de Google Cloud.
    • Precios: Las solicitudes que excedan 200K tokens se cobran automáticamente a tarifas premium (2x entrada, 1.5x salida). Ve la documentación de precios para detalles.
    • Límites de tasa: Las solicitudes de contexto largo tienen límites de tasa dedicados. Ve la documentación de límites de tasa para detalles.
    • Consideraciones multimodales: Al procesar grandes números de imágenes o pdfs, ten en cuenta que los archivos pueden variar en uso de tokens. Al emparejar un prompt grande con un gran número de imágenes, puedes alcanzar límites de tamaño de solicitud.

    Conciencia de contexto en Claude Sonnet 4.5 y Haiku 4.5

    Claude Sonnet 4.5 y Claude Haiku 4.5 presentan conciencia de contexto, habilitando a estos modelos a rastrear su ventana de contexto restante (es decir, "presupuesto de tokens") a lo largo de una conversación. Esto permite a Claude ejecutar tareas y gestionar contexto más efectivamente al entender cuánto espacio tiene para trabajar. Claude está entrenado nativamente para usar este contexto precisamente para persistir en la tarea hasta el final, en lugar de tener que adivinar cuántos tokens quedan. Para un modelo, carecer de conciencia de contexto es como competir en un programa de cocina sin reloj. Los modelos Claude 4.5 cambian esto al informar explícitamente al modelo sobre su contexto restante, para que pueda tomar máxima ventaja de los tokens disponibles.

    Cómo funciona:

    Al inicio de una conversación, Claude recibe información sobre su ventana de contexto total:

    <budget:token_budget>200000</budget:token_budget>

    El presupuesto se establece en 200K tokens (estándar), 500K tokens (Claude.ai Enterprise), o 1M tokens (beta, para organizaciones elegibles).

    Después de cada llamada de herramienta, Claude recibe una actualización sobre la capacidad restante:

    <system_warning>Token usage: 35000/200000; 165000 remaining</system_warning>

    Esta conciencia ayuda a Claude determinar cuánta capacidad queda para el trabajo y permite una ejecución más efectiva en tareas de larga duración. Los tokens de imagen están incluidos en estos presupuestos.

    Beneficios:

    La conciencia de contexto es particularmente valiosa para:

    • Sesiones de agente de larga duración que requieren enfoque sostenido
    • Flujos de trabajo de múltiples ventanas de contexto donde las transiciones de estado importan
    • Tareas complejas que requieren gestión cuidadosa de tokens

    Para orientación de prompting sobre aprovechar la conciencia de contexto, ve nuestra guía de mejores prácticas de Claude 4.

    Gestión de ventana de contexto con modelos Claude más nuevos

    En modelos Claude más nuevos (comenzando con Claude Sonnet 3.7), si la suma de tokens de prompt y tokens de salida excede la ventana de contexto del modelo, el sistema devolverá un error de validación en lugar de truncar silenciosamente el contexto. Este cambio proporciona comportamiento más predecible pero requiere gestión de tokens más cuidadosa.

    Para planificar tu uso de tokens y asegurar que te mantengas dentro de los límites de la ventana de contexto, puedes usar la API de conteo de tokens para estimar cuántos tokens usarán tus mensajes antes de enviarlos a Claude.

    Ve nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto por modelo.

    Próximos pasos

    Tabla de comparación de modelos

    Ve nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto y precios de tokens de entrada / salida por modelo.

  1. Componentes de entrada: Todas las entradas y la salida del turno anterior se llevan adelante con la excepción del bloque de pensamiento, que puede ser eliminado ahora que Claude ha completado todo el ciclo de uso de herramientas. La API eliminará automáticamente el bloque de pensamiento por ti si lo pasas de vuelta, o puedes sentirte libre de eliminarlo tú mismo en esta etapa. Aquí es también donde agregarías el siguiente turno de User.
  2. Componentes de salida: Dado que hay un nuevo turno de User fuera del ciclo de uso de herramientas, Claude generará un nuevo bloque de pensamiento extendido y continuará desde ahí.
  3. Cálculo de tokens: Los tokens de pensamiento anteriores se eliminan automáticamente de los cálculos de la ventana de contexto. Todos los otros bloques anteriores aún cuentan como parte de la ventana de tokens, y el bloque de pensamiento en el turno actual de Assistant cuenta como parte de la ventana de contexto.
  4. from anthropic import Anthropic
    
    client = Anthropic()
    
    response = client.beta.messages.create(
        model="claude-sonnet-4-5",
        max_tokens=1024,
        messages=[
            {"role": "user", "content": "Process this large document..."}
        ],
        betas=["context-1m-2025-08-07"]
    )
    Resumen de pensamiento extendido

    Aprende más sobre cómo funciona el pensamiento extendido y cómo implementarlo junto con otras características como uso de herramientas y caché de prompts.