Aquí hay algunos indicadores clave de que deberías emplear un LLM como Claude para automatizar partes de tu proceso de soporte al cliente:
Algunas consideraciones para elegir Claude sobre otros LLMs:
Describe una interacción ideal del cliente para definir cómo y cuándo esperas que el cliente interactúe con Claude. Este esquema te ayudará a determinar los requisitos técnicos de tu solución.
Aquí hay un ejemplo de interacción de chat para soporte al cliente de seguros de automóviles:
El chat de soporte al cliente es una colección de múltiples tareas diferentes, desde responder preguntas hasta recuperación de información hasta tomar acciones en solicitudes, todo envuelto en una única interacción del cliente. Antes de comenzar a construir, divide tu interacción ideal del cliente en cada tarea que deseas que Claude pueda realizar. Esto asegura que puedas hacer prompts y evaluar Claude para cada tarea, y te da una buena idea del rango de interacciones que necesitas considerar al escribir casos de prueba.
Aquí están las tareas clave asociadas con el ejemplo de interacción de seguros anterior:
Saludo y orientación general
Información del producto
Gestión de conversación
Trabaja con tu equipo de soporte para definir criterios de éxito claros y escribe evaluaciones detalladas con puntos de referencia y objetivos medibles.
Aquí hay criterios y puntos de referencia que se pueden usar para evaluar qué tan exitosamente Claude realiza las tareas definidas:
Aquí hay criterios y puntos de referencia que se pueden usar para evaluar el impacto empresarial de emplear Claude para soporte:
La elección del modelo depende de los compromisos entre costo, precisión y tiempo de respuesta.
Para chat de soporte al cliente, Claude Sonnet 4.5 es adecuado para equilibrar inteligencia, latencia y costo. Sin embargo, para instancias donde tienes flujo de conversación con múltiples prompts incluyendo RAG, uso de herramientas, y/o prompts de contexto largo, Claude Haiku 4.5 puede ser más adecuado para optimizar la latencia.
Usar Claude para soporte al cliente requiere que Claude tenga suficiente dirección y contexto para responder apropiadamente, mientras tiene suficiente flexibilidad para manejar una amplia gama de consultas de clientes.
Comencemos escribiendo los elementos de un prompt fuerte, comenzando con un system prompt:
IDENTITY = """You are Eva, a friendly and knowledgeable AI assistant for Acme Insurance
Company. Your role is to warmly welcome customers and provide information on
Acme's insurance offerings, which include car insurance and electric car
insurance. You can also help customers get quotes for their insurance needs."""User (con la única excepción siendo role prompting). Lee más en Giving Claude a role with a system prompt.Es mejor dividir prompts complejos en subsecciones y escribir una parte a la vez. Para cada tarea, podrías encontrar mayor éxito siguiendo un proceso paso a paso para definir las partes del prompt que Claude necesitaría para hacer la tarea bien. Para este ejemplo de soporte al cliente de seguros de automóviles, estaremos escribiendo por partes todas las partes para un prompt comenzando con la tarea "Greeting and general guidance". Esto también hace que depurar tu prompt sea más fácil ya que puedes ajustar más rápidamente partes individuales del prompt general.
Pondremos todos estos fragmentos en un archivo llamado config.py.
STATIC_GREETINGS_AND_GENERAL = """
<static_context>
Acme Auto Insurance: Your Trusted Companion on the Road
About:
At Acme Insurance, we understand that your vehicle is more than just a mode of transportation—it's your ticket to life's adventures.
Since 1985, we've been crafting auto insurance policies that give drivers the confidence to explore, commute, and travel with peace of mind.
Whether you're navigating city streets or embarking on cross-country road trips, Acme is there to protect you and your vehicle.
Our innovative auto insurance policies are designed to adapt to your unique needs, covering everything from fender benders to major collisions.
With Acme's award-winning customer service and swift claim resolution, you can focus on the joy of driving while we handle the rest.
We're not just an insurance provider—we're your co-pilot in life's journeys.
Choose Acme Auto Insurance and experience the assurance that comes with superior coverage and genuine care. Because at Acme, we don't just
insure your car—we fuel your adventures on the open road.
Note: We also offer specialized coverage for electric vehicles, ensuring that drivers of all car types can benefit from our protection.
Acme Insurance offers the following products:
- Car insurance
- Electric car insurance
- Two-wheeler insurance
Business hours: Monday-Friday, 9 AM - 5 PM EST
Customer service number: 1-800-123-4567
</static_context>
"""Luego haremos lo mismo para nuestra información de seguros de automóviles y seguros de automóviles eléctricos.
STATIC_CAR_INSURANCE="""
<static_context>
Car Insurance Coverage:
Acme's car insurance policies typically cover:
1. Liability coverage: Pays for bodily injury and property damage you cause to others.
2. Collision coverage: Pays for damage to your car in an accident.
3. Comprehensive coverage: Pays for damage to your car from non-collision incidents.
4. Medical payments coverage: Pays for medical expenses after an accident.
5. Uninsured/underinsured motorist coverage: Protects you if you're hit by a driver with insufficient insurance.
Optional coverages include:
- Rental car reimbursement
- Roadside assistance
- New car replacement
</static_context>
"""
STATIC_ELECTRIC_CAR_INSURANCE="""
<static_context>
Electric Car Insurance:
Our specialized electric car insurance goes beyond traditional auto coverage,
offering tailored protection for your high-tech investment. In addition to standard coverages, we offer:
- Safeguarding expensive battery systems
- Covering home charging equipment
- Adapting to the rapidly evolving world of electric vehicles
Whether you're driving a Rivian, Nissan Leaf, Chevrolet Bolt,
or any other electric vehicle, our knowledgeable agents are ready to craft a policy
that gives you the confidence to enjoy every electron-powered mile.
</static_context>
"""Ahora que tenemos nuestro contenido estático, agreguemos al menos 4-5 interacciones de ejemplo "buenas" para guiar las respuestas de Claude. Estos ejemplos deben ser representativos de tu interacción ideal del cliente e pueden incluir guardrails, llamadas de herramientas, etc.
EXAMPLES="""
Here are a few examples of how you can interact with customers:
<example 1>
H: Hi, do you offer commercial insurance for small businesses?
A: Ah! Unfortunately, we don't offer commercial insurance at this time.
However, we do provide a range of personal insurance products including car insurance and electric car insurance.
Would you like to know more about these offerings?
</example 1>
<example 2>
H: Hi, what are your business hours?
A: Our business hours are Monday to Friday, 9 AM to 5 PM EST.
If you have any questions or need assistance, feel free to reach out during those times.
How else can I assist you today?
</example 2>
<example 3>
H: I'm shopping for car insurance. What does Acme offer?
A: Great choice! Acme's car insurance policies typically include:
- Liability coverage: Protects you if you're at fault in an accident
- Collision coverage: Pays for damage to your car in an accident
- Comprehensive coverage: Covers non-collision incidents like theft or vandalism
- Medical payments coverage: Pays for medical expenses after an accident
- Uninsured/underinsured motorist coverage: Protects you from drivers with insufficient insurance
We also offer optional coverages like rental car reimbursement, roadside assistance, and new car replacement.
Would you like more details on any of these coverages, or do you have specific questions about insuring your vehicle?
</example 3>
<example 4>
H: I'd like to hear about your electric car insurance.
A: Certainly! Our electric car insurance is specially designed to meet the unique needs of electric vehicle owners.
In addition to all the standard coverages we offer for regular cars, our electric car policies include:
- Battery coverage: Protection against damage or degradation of your vehicle's expensive battery system
- Tech package: Covers repairs or replacement of advanced electronics and onboard computer systems
- Charging station coverage: Protects both home and portable charging equipment
- Cybersecurity protection: Coverage against hacking or digital threats
- Specialized roadside assistance: Includes flatbed towing to protect the vehicle's undercarriage
We cover a wide range of electric vehicles, including popular models from Tesla, Rivian, Nissan, Chevrolet, and more.
Is there a specific electric vehicle you're looking to insure, or would you like more details on any of these coverages?
</example 4>
<example 5>
H: I'd like to get a quote for my car insurance.
A: Certainly! I'd be happy to help you get a quote for your car insurance.
To provide you with an accurate quote, I'll need to collect some information about your vehicle and the primary driver.
Let's start with the basics:
1. What is the make and model of your vehicle?
2. What year was it manufactured?
3. Approximately how many miles have you driven?
4. What is the age of the primary driver?
Once you provide this information, I'll use our quoting tool to generate a personalized insurance quote for you.
</example 5>
"""También querrás incluir cualquier instrucción importante que describa los Qué hacer y Qué no hacer para cómo Claude debe interactuar con el cliente. Esto puede extraerse de guardrails de marca o políticas de soporte.
ADDITIONAL_GUARDRAILS = """Please adhere to the following guardrails:
1. Only provide information about insurance types listed in our offerings.
2. If asked about an insurance type we don't offer, politely state
that we don't provide that service.
3. Do not speculate about future product offerings or company plans.
4. Don't make promises or enter into agreements it's not authorized to make.
You only provide information and guidance.
5. Do not mention any competitor's products or services.
"""Ahora combinemos todas estas secciones en una única cadena para usar como nuestro prompt.
TASK_SPECIFIC_INSTRUCTIONS = ' '.join([
STATIC_GREETINGS_AND_GENERAL,
STATIC_CAR_INSURANCE,
STATIC_ELECTRIC_CAR_INSURANCE,
EXAMPLES,
ADDITIONAL_GUARDRAILS,
])Claude es capaz de tomar acciones y recuperar información dinámicamente usando la funcionalidad de uso de herramientas del lado del cliente. Comienza listando cualquier herramienta externa o API que el prompt deba utilizar.
Para este ejemplo, comenzaremos con una herramienta para calcular la cotización.
Ejemplo de calculadora de cotización de seguros:
TOOLS = [{
"name": "get_quote",
"description": "Calculate the insurance quote based on user input. Returned value is per month premium.",
"input_schema": {
"type": "object",
"properties": {
"make": {"type": "string", "description": "The make of the vehicle."},
"model": {"type": "string", "description": "The model of the vehicle."},
"year": {"type": "integer", "description": "The year the vehicle was manufactured."},
"mileage": {"type": "integer", "description": "The mileage on the vehicle."},
"driver_age": {"type": "integer", "description": "The age of the primary driver."}
},
"required": ["make", "model", "year", "mileage", "driver_age"]
}
}]
def get_quote(make, model, year, mileage, driver_age):
"""Returns the premium per month in USD"""
# You can call an http endpoint or a database to get the quote.
# Here, we simulate a delay of 1 seconds and return a fixed quote of 100.
time.sleep(1)
return 100Es difícil saber qué tan bien funciona tu prompt sin desplegarlo en un entorno de producción de prueba y ejecutar evaluaciones así que construyamos una pequeña aplicación usando nuestro prompt, el SDK de Anthropic, y streamlit para una interfaz de usuario.
En un archivo llamado chatbot.py, comienza configurando la clase ChatBot, que encapsulará las interacciones con el SDK de Anthropic.
La clase debe tener dos métodos principales: generate_message y process_user_input.
from anthropic import Anthropic
from config import IDENTITY, TOOLS, MODEL, get_quote
from dotenv import load_dotenv
load_dotenv()
class ChatBot:
def __init__(self, session_state):
self.anthropic = Anthropic()
self.session_state = session_state
def generate_message(
self,
messages,
max_tokens,
):
try:
response = self.anthropic.messages.create(
model=MODEL,
system=IDENTITY,
max_tokens=max_tokens,
messages=messages,
tools=TOOLS,
)
return response
except Exception as e:
return {"error": str(e)}
def process_user_input(self, user_input):
self.session_state.messages.append({"role": "user", "content": user_input})
response_message = self.generate_message(
messages=self.session_state.messages,
max_tokens=2048,
)
if "error" in response_message:
return f"An error occurred: {response_message['error']}"
if response_message.content[-1].type == "tool_use":
tool_use = response_message.content[-1]
func_name = tool_use.name
func_params = tool_use.input
tool_use_id = tool_use.id
result = self.handle_tool_use(func_name, func_params)
self.session_state.messages.append(
{"role": "assistant", "content": response_message.content}
)
self.session_state.messages.append({
"role": "user",
"content": [{
"type": "tool_result",
"tool_use_id": tool_use_id,
"content": f"{result}",
}],
})
follow_up_response = self.generate_message(
messages=self.session_state.messages,
max_tokens=2048,
)
if "error" in follow_up_response:
return f"An error occurred: {follow_up_response['error']}"
response_text = follow_up_response.content[0].text
self.session_state.messages.append(
{"role": "assistant", "content": response_text}
)
return response_text
elif response_message.content[0].type == "text":
response_text = response_message.content[0].text
self.session_state.messages.append(
{"role": "assistant", "content": response_text}
)
return response_text
else:
raise Exception("An error occurred: Unexpected response type")
def handle_tool_use(self, func_name, func_params):
if func_name == "get_quote":
premium = get_quote(**func_params)
return f"Quote generated: ${premium:.2f} per month"
raise Exception("An unexpected tool was used")Prueba desplegando este código con Streamlit usando un método main. Esta función main() configura una interfaz de chat basada en Streamlit.
Haremos esto en un archivo llamado app.py
import streamlit as st
from chatbot import ChatBot
from config import TASK_SPECIFIC_INSTRUCTIONS
def main():
st.title("Chat with Eva, Acme Insurance Company's Assistant🤖")
if "messages" not in st.session_state:
st.session_state.messages = [
{'role': "user", "content": TASK_SPECIFIC_INSTRUCTIONS},
{'role': "assistant", "content": "Understood"},
]
chatbot = ChatBot(st.session_state)
# Display user and assistant messages skipping the first two
for message in st.session_state.messages[2:]:
# ignore tool use blocks
if isinstance(message["content"], str):
with st.chat_message(message["role"]):
st.markdown(message["content"])
if user_msg := st.chat_input("Type your message here..."):
st.chat_message("user").markdown(user_msg)
with st.chat_message("assistant"):
with st.spinner("Eva is thinking..."):
response_placeholder = st.empty()
full_response = chatbot.process_user_input(user_msg)
response_placeholder.markdown(full_response)
if __name__ == "__main__":
main()Ejecuta el programa con:
streamlit run app.pyEl prompting a menudo requiere pruebas y optimización para que esté listo para producción. Para determinar la preparación de tu solución, evalúa el desempeño del chatbot usando un proceso sistemático que combine métodos cuantitativos y cualitativos. Crear una evaluación empírica fuerte basada en tus criterios de éxito definidos te permitirá optimizar tus prompts.
En escenarios complejos, puede ser útil considerar estrategias adicionales para mejorar el desempeño más allá de técnicas estándar de ingeniería de prompts e implementación de guardrails. Aquí hay algunos escenarios comunes:
Cuando se trata de grandes cantidades de contexto estático y dinámico, incluir toda la información en el prompt puede llevar a costos altos, tiempos de respuesta más lentos y alcanzar límites de ventana de contexto. En este escenario, implementar técnicas de Generación Aumentada por Recuperación (RAG) puede mejorar significativamente el desempeño y la eficiencia.
Al usar modelos de embedding como Voyage para convertir información en representaciones vectoriales, puedes crear un sistema más escalable y responsivo. Este enfoque permite la recuperación dinámica de información relevante basada en la consulta actual, en lugar de incluir todo el contexto posible en cada prompt.
Implementar RAG para casos de uso de soporte receta RAG ha demostrado aumentar la precisión, reducir tiempos de respuesta y reducir costos de API en sistemas con requisitos de contexto extensos.
Cuando se trata de consultas que requieren información en tiempo real, como saldos de cuenta o detalles de póliza, los enfoques RAG basados en embedding no son suficientes. En su lugar, puedes aprovechar el uso de herramientas para mejorar significativamente la capacidad de tu chatbot de proporcionar respuestas precisas y en tiempo real. Por ejemplo, puedes usar el uso de herramientas para buscar información del cliente, recuperar detalles de pedidos y cancelar pedidos en nombre del cliente.
Este enfoque, descrito en nuestra receta de uso de herramientas: agente de servicio al cliente, te permite integrar sin problemas datos en vivo en las respuestas de Claude y proporcionar una experiencia de cliente más personalizada y eficiente.
Al desplegar un chatbot, especialmente en escenarios de servicio al cliente, es crucial prevenir riesgos asociados con mal uso, consultas fuera de alcance y respuestas inapropiadas. Aunque Claude es inherentemente resiliente a tales escenarios, aquí hay pasos adicionales para fortalecer los guardrails de tu chatbot:
Cuando se trata de respuestas potencialmente largas, implementar streaming puede mejorar significativamente el compromiso y la satisfacción del usuario. En este escenario, los usuarios reciben la respuesta progresivamente en lugar de esperar a que se genere la respuesta completa.
Aquí está cómo implementar streaming:
En algunos casos, el streaming permite el uso de modelos más avanzados con latencias base más altas, ya que la visualización progresiva mitiga el impacto de tiempos de procesamiento más largos.
A medida que la complejidad de tu Chatbot crece, tu arquitectura de aplicación puede evolucionar para coincidir. Antes de agregar más capas a tu arquitectura, considera las siguientes opciones menos exhaustivas:
Si tu Chatbot maneja tareas increíblemente variadas, podrías querer considerar agregar un clasificador de intención separado para enrutar la consulta inicial del cliente. Para la aplicación existente, esto implicaría crear un árbol de decisión que enrutaría consultas de clientes a través del clasificador y luego a conversaciones especializadas (con su propio conjunto de herramientas y system prompts). Nota, este método requiere una llamada adicional a Claude que puede aumentar la latencia.
Mientras que nuestros ejemplos se han enfocado en funciones Python invocables dentro de un entorno Streamlit, desplegar Claude para chatbot de soporte en tiempo real requiere un servicio API.
Aquí está cómo puedes abordar esto:
Crea un envoltorio API: Desarrolla un envoltorio API simple alrededor de tu función de clasificación. Por ejemplo, puedes usar Flask API o Fast API para envolver tu código en un Servicio HTTP. Tu servicio HTTP podría aceptar la entrada del usuario y devolver la respuesta del Asistente en su totalidad. Así, tu servicio podría tener las siguientes características:
Construye una interfaz web: Implementa una interfaz de usuario web amigable para interactuar con el agente impulsado por Claude.
Generación de cotización
Visita nuestra receta de cookbook RAG para más código de ejemplo y orientación detallada.