Loading...
    • Guía del Desarrollador
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K

    Primeros pasos

    Introducción a ClaudeInicio rápido

    Modelos y precios

    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecaciones de modelosPrecios

    Crear con Claude

    Descripción general de característicasTrabajar con la API de MessagesVentanas de contextoMejores prácticas de prompting

    Capacidades

    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoTransmisión de MensajesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte para PDFAPI de ArchivosResultados de búsquedaComplemento de Google Sheets

    Herramientas

    Descripción generalCómo implementar el uso de herramientasUso de herramientas eficiente en tokensStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de obtención webHerramienta de búsqueda webHerramienta de memoria

    Habilidades del Agente

    Habilidades del AgenteComenzar con Agent Skills en la APIMejores prácticas para la creación de SkillsUso de Agent Skills con la API

    SDK de Agente

    Descripción general del Agent SDKReferencia del SDK del Agente - TypeScriptReferencia del SDK de Agent - Python

    Guías

    Entrada de StreamingManejo de PermisosGestión de SesionesAlojamiento del Agent SDKModificación de prompts del sistemaMCP en el SDKHerramientas PersonalizadasSubagentes en el SDKComandos Slash en el SDKHabilidades de Agente en el SDKSeguimiento de Costos y UsoListas de TareasPlugins en el SDK

    MCP en la API

    Conector MCPServidores MCP remotos

    Claude en plataformas de terceros

    Amazon BedrockVertex AI

    Ingeniería de prompts

    ResumenGenerador de promptsUsar plantillas de promptsMejorador de promptsSé claro y directoUsar ejemplos (prompting multishot)Deja que Claude piense (CoT)Usar etiquetas XMLDarle un rol a Claude (avisos del sistema)Prefill de la respuesta de ClaudeEncadena prompts complejosConsejos para contexto largoConsejos de pensamiento extendido

    Probar y evaluar

    Definir criterios de éxitoDesarrollar casos de pruebaUsando la Herramienta de EvaluaciónReducir la latencia

    Fortalecer protecciones

    Reducir las alucinacionesAumentar la consistencia de la salidaMitigar jailbreakshandle-streaming-refusalsReducir la filtración de promptsMantener a Claude en personaje

    Administración y monitoreo

    Descripción general de la API de administraciónAPI de Uso y CostoAPI de Análisis de Claude Code
    Console
    Crear con Claude

    Ventanas de contexto

    Entendiendo la ventana de contexto

    La "ventana de contexto" se refiere a la totalidad de la cantidad de texto que un modelo de lenguaje puede revisar y referenciar al generar nuevo texto, más el nuevo texto que genera. Esto es diferente del gran corpus de datos con el que se entrenó el modelo de lenguaje, y en su lugar representa una "memoria de trabajo" para el modelo. Una ventana de contexto más grande permite al modelo entender y responder a prompts más complejos y largos, mientras que una ventana de contexto más pequeña puede limitar la capacidad del modelo para manejar prompts más largos o mantener coherencia durante conversaciones extendidas.

    El diagrama a continuación ilustra el comportamiento estándar de la ventana de contexto para solicitudes de API1:

    Diagrama de ventana de contexto

    1Para interfaces de chat, como para claude.ai, las ventanas de contexto también pueden configurarse en un sistema rotativo de "primero en entrar, primero en salir".

    • Acumulación progresiva de tokens: A medida que la conversación avanza a través de turnos, cada mensaje del usuario y respuesta del asistente se acumula dentro de la ventana de contexto. Los turnos anteriores se preservan completamente.
    • Patrón de crecimiento lineal: El uso del contexto crece linealmente con cada turno, con los turnos anteriores preservados completamente.
    • Capacidad de 200K tokens: La ventana de contexto total disponible (200,000 tokens) representa la capacidad máxima para almacenar el historial de conversación y generar nueva salida de Claude.
    • Flujo de entrada-salida: Cada turno consiste en:
      • Fase de entrada: Contiene todo el historial de conversación anterior más el mensaje actual del usuario
      • Fase de salida: Genera una respuesta de texto que se convierte en parte de una entrada futura

    La ventana de contexto con pensamiento extendido

    Al usar pensamiento extendido, todos los tokens de entrada y salida, incluyendo los tokens utilizados para pensar, cuentan hacia el límite de la ventana de contexto, con algunos matices en situaciones de múltiples turnos.

    Los tokens del presupuesto de pensamiento son un subconjunto de tu parámetro max_tokens, se facturan como tokens de salida y cuentan hacia los límites de tasa.

    Sin embargo, los bloques de pensamiento anteriores se eliminan automáticamente del cálculo de la ventana de contexto por la API de Claude y no son parte del historial de conversación que el modelo "ve" para turnos subsecuentes, preservando la capacidad de tokens para el contenido real de la conversación.

    El diagrama a continuación demuestra la gestión especializada de tokens cuando el pensamiento extendido está habilitado:

    Diagrama de ventana de contexto con pensamiento extendido

    • Eliminación del pensamiento extendido: Los bloques de pensamiento extendido (mostrados en gris oscuro) se generan durante la fase de salida de cada turno, pero no se llevan adelante como tokens de entrada para turnos subsecuentes. No necesitas eliminar los bloques de pensamiento tú mismo. La API de Claude hace esto automáticamente si los pasas de vuelta.
    • Detalles de implementación técnica:
      • La API excluye automáticamente los bloques de pensamiento de turnos anteriores cuando los pasas de vuelta como parte del historial de conversación.
      • Los tokens de pensamiento extendido se facturan como tokens de salida solo una vez, durante su generación.
      • El cálculo efectivo de la ventana de contexto se convierte en: context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens.
      • Los tokens de pensamiento incluyen tanto bloques thinking como bloques redacted_thinking.

    Esta arquitectura es eficiente en tokens y permite un razonamiento extenso sin desperdicio de tokens, ya que los bloques de pensamiento pueden ser sustanciales en longitud.

    Puedes leer más sobre la ventana de contexto y el pensamiento extendido en nuestra guía de pensamiento extendido.

    La ventana de contexto con pensamiento extendido y uso de herramientas

    El diagrama a continuación ilustra la gestión de tokens de la ventana de contexto al combinar pensamiento extendido con uso de herramientas:

    Diagrama de ventana de contexto con pensamiento extendido y uso de herramientas

    1. 1

      Arquitectura del primer turno

      • Componentes de entrada: Configuración de herramientas y mensaje del usuario
      • Componentes de salida: Pensamiento extendido + respuesta de texto + solicitud de uso de herramienta
      • Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
    2. 2

      Manejo de resultados de herramientas (turno 2)

      • Componentes de entrada: Cada bloque en el primer turno así como el tool_result. El bloque de pensamiento extendido debe ser devuelto con los resultados de herramienta correspondientes. Este es el único caso en el que tienes que devolver bloques de pensamiento.
      • Componentes de salida: Después de que los resultados de herramientas han sido pasados de vuelta a Claude, Claude responderá solo con texto (sin pensamiento extendido adicional hasta el siguiente mensaje de user).
      • Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
    3. 3

      Tercer Paso

      • Componentes de entrada: Todas las entradas y la salida del turno anterior se llevan adelante con la excepción del bloque de pensamiento, que puede ser eliminado ahora que Claude ha completado todo el ciclo de uso de herramientas. La API eliminará automáticamente el bloque de pensamiento por ti si lo pasas de vuelta, o puedes sentirte libre de eliminarlo tú mismo en esta etapa. Aquí es también donde agregarías el siguiente turno de User.
      • Componentes de salida: Dado que hay un nuevo turno de User fuera del ciclo de uso de herramientas, Claude generará un nuevo bloque de pensamiento extendido y continuará desde ahí.
      • Cálculo de tokens: Los tokens de pensamiento anteriores se eliminan automáticamente de los cálculos de la ventana de contexto. Todos los otros bloques anteriores aún cuentan como parte de la ventana de tokens, y el bloque de pensamiento en el turno actual de Assistant cuenta como parte de la ventana de contexto.
    • Consideraciones para el uso de herramientas con pensamiento extendido:
      • Al publicar resultados de herramientas, todo el bloque de pensamiento sin modificar que acompaña esa solicitud específica de herramienta (incluyendo porciones de firma/censuradas) debe ser incluido.
      • El cálculo efectivo de la ventana de contexto para pensamiento extendido con uso de herramientas se convierte en: context_window = input_tokens + current_turn_tokens.
      • El sistema usa firmas criptográficas para verificar la autenticidad del bloque de pensamiento. Fallar en preservar los bloques de pensamiento durante el uso de herramientas puede romper la continuidad de razonamiento de Claude. Por lo tanto, si modificas los bloques de pensamiento, la API devolverá un error.

    Los modelos Claude 4 soportan pensamiento intercalado, que permite a Claude pensar entre llamadas de herramientas y hacer razonamiento más sofisticado después de recibir resultados de herramientas.

    Claude Sonnet 3.7 no soporta pensamiento intercalado, por lo que no hay intercalado de pensamiento extendido y llamadas de herramientas sin un turno de usuario que no sea tool_result en el medio.

    Para más información sobre usar herramientas con pensamiento extendido, ve nuestra guía de pensamiento extendido.

    Ventana de contexto de 1M tokens

    Claude Sonnet 4 y 4.5 soportan una ventana de contexto de 1 millón de tokens. Esta ventana de contexto extendida te permite procesar documentos mucho más grandes, mantener conversaciones más largas y trabajar con bases de código más extensas.

    La ventana de contexto de 1M tokens está actualmente en beta para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. La ventana de contexto de 1M tokens solo está disponible para Claude Sonnet 4 y Sonnet 4.5.

    Para usar la ventana de contexto de 1M tokens, incluye el encabezado beta context-1m-2025-08-07 en tus solicitudes de API:

    Python
    from anthropic import Anthropic
    
    client = Anthropic()
    
    response = client.beta.messages.create(
        model="claude-sonnet-4-5",
        max_tokens=1024,
        messages=[
            {"role": "user", "content": "Process this large document..."}
        ],
        betas=["context-1m-2025-08-07"]
    )
    TypeScript
    import Anthropic from '@anthropic-ai/sdk';
    
    const anthropic = new Anthropic();
    
    const msg = await anthropic.beta.messages.create({
      model: 'claude-sonnet-4-5',
      max_tokens: 1024,
      messages: [
        { role: 'user', content: 'Process this large document...' }
      ],
      betas: ['context-1m-2025-08-07']
    });
    cURL
    curl https://api.anthropic.com/v1/messages \
      -H "x-api-key: $ANTHROPIC_API_KEY" \
      -H "anthropic-version: 2023-06-01" \
      -H "anthropic-beta: context-1m-2025-08-07" \
      -H "content-type: application/json" \
      -d '{
        "model": "claude-sonnet-4-5",
        "max_tokens": 1024,
        "messages": [
          {"role": "user", "content": "Process this large document..."}
        ]
      }'

    Consideraciones importantes:

    • Estado beta: Esta es una característica beta sujeta a cambios. Las características y precios pueden ser modificados o eliminados en versiones futuras.
    • Requisito de nivel de uso: La ventana de contexto de 1M tokens está disponible para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. Las organizaciones de nivel inferior deben avanzar al nivel de uso 4 para acceder a esta característica.
    • Disponibilidad: La ventana de contexto de 1M tokens está actualmente disponible en la API de Claude, Amazon Bedrock, y Vertex AI de Google Cloud.
    • Precios: Las solicitudes que excedan 200K tokens se cobran automáticamente a tarifas premium (2x entrada, 1.5x salida). Ve la documentación de precios para detalles.
    • Límites de tasa: Las solicitudes de contexto largo tienen límites de tasa dedicados. Ve la documentación de límites de tasa para detalles.
    • Consideraciones multimodales: Al procesar grandes números de imágenes o pdfs, ten en cuenta que los archivos pueden variar en uso de tokens. Al emparejar un prompt grande con un gran número de imágenes, puedes alcanzar límites de tamaño de solicitud.

    Conciencia de contexto en Claude Sonnet 4.5 y Haiku 4.5

    Claude Sonnet 4.5 y Claude Haiku 4.5 presentan conciencia de contexto, habilitando a estos modelos a rastrear su ventana de contexto restante (es decir, "presupuesto de tokens") a lo largo de una conversación. Esto permite a Claude ejecutar tareas y gestionar contexto más efectivamente al entender cuánto espacio tiene para trabajar. Claude está entrenado nativamente para usar este contexto precisamente para persistir en la tarea hasta el final, en lugar de tener que adivinar cuántos tokens quedan. Para un modelo, carecer de conciencia de contexto es como competir en un programa de cocina sin reloj. Los modelos Claude 4.5 cambian esto al informar explícitamente al modelo sobre su contexto restante, para que pueda tomar máxima ventaja de los tokens disponibles.

    Cómo funciona:

    Al inicio de una conversación, Claude recibe información sobre su ventana de contexto total:

    <budget:token_budget>200000</budget:token_budget>

    El presupuesto se establece en 200K tokens (estándar), 500K tokens (Claude.ai Enterprise), o 1M tokens (beta, para organizaciones elegibles).

    Después de cada llamada de herramienta, Claude recibe una actualización sobre la capacidad restante:

    <system_warning>Token usage: 35000/200000; 165000 remaining</system_warning>

    Esta conciencia ayuda a Claude determinar cuánta capacidad queda para el trabajo y permite una ejecución más efectiva en tareas de larga duración. Los tokens de imagen están incluidos en estos presupuestos.

    Beneficios:

    La conciencia de contexto es particularmente valiosa para:

    • Sesiones de agente de larga duración que requieren enfoque sostenido
    • Flujos de trabajo de múltiples ventanas de contexto donde las transiciones de estado importan
    • Tareas complejas que requieren gestión cuidadosa de tokens

    Para orientación de prompting sobre aprovechar la conciencia de contexto, ve nuestra guía de mejores prácticas de Claude 4.

    Gestión de ventana de contexto con modelos Claude más nuevos

    En modelos Claude más nuevos (comenzando con Claude Sonnet 3.7), si la suma de tokens de prompt y tokens de salida excede la ventana de contexto del modelo, el sistema devolverá un error de validación en lugar de truncar silenciosamente el contexto. Este cambio proporciona comportamiento más predecible pero requiere gestión de tokens más cuidadosa.

    Para planificar tu uso de tokens y asegurar que te mantengas dentro de los límites de la ventana de contexto, puedes usar la API de conteo de tokens para estimar cuántos tokens usarán tus mensajes antes de enviarlos a Claude.

    Ve nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto por modelo.

    Próximos pasos

    Tabla de comparación de modelos

    Ve nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto y precios de tokens de entrada / salida por modelo.

    Resumen de pensamiento extendido

    Aprende más sobre cómo funciona el pensamiento extendido y cómo implementarlo junto con otras características como uso de herramientas y caché de prompts.

    • Entendiendo la ventana de contexto
    • La ventana de contexto con pensamiento extendido
    • La ventana de contexto con pensamiento extendido y uso de herramientas
    • Ventana de contexto de 1M tokens
    • Conciencia de contexto en Claude Sonnet 4.5 y Haiku 4.5
    • Gestión de ventana de contexto con modelos Claude más nuevos
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC