Ao implantar uma aplicação baseada em LLM com Claude, suas chamadas de API normalmente consistirão em dois tipos de conteúdo:
Um modelo de prompt combina essas partes fixas e variáveis, usando marcadores de posição para o conteúdo dinâmico. No Claude Console, esses marcadores de posição são denotados com {{chaves duplas}}, tornando-os facilmente identificáveis e permitindo testes rápidos de diferentes valores.
Você deve sempre usar modelos de prompt e variáveis quando esperar que qualquer parte do seu prompt seja repetida em outra chamada para Claude (apenas via API ou o Claude Console. claude.ai atualmente não suporta modelos de prompt ou variáveis).
Modelos de prompt oferecem vários benefícios:
O Claude Console usa intensivamente modelos de prompt e variáveis para suportar recursos e ferramentas para todos os itens acima, como com o:
Vamos considerar uma aplicação simples que traduz texto em inglês para espanhol. O texto traduzido seria variável já que você esperaria que esse texto mudasse entre usuários ou chamadas para Claude. Esse texto traduzido poderia ser dinamicamente recuperado de bancos de dados ou da entrada do usuário.
Assim, para sua aplicação de tradução, você poderia usar este modelo de prompt simples:
Traduza este texto do inglês para o espanhol: {{text}}Aprenda sobre o gerador de prompt no Claude Console e tente fazer com que Claude gere um prompt para você.
Se você quiser elevar o nível do seu jogo de variáveis de prompt, envolva-as em tags XML.
Confira a miríade de ferramentas de desenvolvimento de prompt disponíveis no Claude Console.