While these tips apply broadly to all Claude models, you can find prompting tips specific to extended thinking models here.
Pengisian sebelumnya hanya tersedia untuk mode non-extended thinking. Saat ini tidak didukung dengan extended thinking.
Saat menggunakan Claude, Anda memiliki kemampuan unik untuk memandu responsnya dengan mengisi sebelumnya pesan Assistant. Teknik yang kuat ini memungkinkan Anda untuk mengarahkan tindakan Claude, melewati pembukaan, memberlakukan format tertentu seperti JSON atau XML, dan bahkan membantu Claude mempertahankan konsistensi karakter dalam skenario bermain peran.
Dalam beberapa kasus di mana Claude tidak berkinerja seperti yang diharapkan, beberapa kalimat yang diisi sebelumnya dapat sangat meningkatkan kinerja Claude. Sedikit pengisian sebelumnya berjalan jauh!
Untuk mengisi sebelumnya, sertakan teks awal yang diinginkan dalam pesan Assistant (respons Claude akan berlanjut dari mana pesan Assistant berakhir):
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-sonnet-4-5",
max_tokens=1024,
messages=[
{"role": "user", "content": "What is your favorite color?"},
{"role": "assistant", "content": "As an AI assistant, I don't have a favorite color, But if I had to pick, it would be green because"} # Prefill here
]
)Konten pengisian sebelumnya tidak dapat diakhiri dengan spasi kosong. Pengisian sebelumnya seperti "As an AI assistant, I " (dengan spasi di akhir) akan menghasilkan kesalahan.
{ memaksa Claude untuk melewati pembukaan dan langsung mengeluarkan objek JSON. Ini lebih bersih, lebih ringkas, dan lebih mudah untuk program diurai tanpa pemrosesan tambahan.
Untuk output JSON yang dijamin sesuai dengan skema tertentu, pertimbangkan menggunakan Structured Outputs alih-alih pengisian sebelumnya. Output terstruktur memastikan respons Claude selalu cocok dengan skema JSON yang Anda tentukan, menjadikannya ideal untuk aplikasi produksi yang memerlukan kepatuhan format yang ketat.[ROLE_NAME] yang diberi tanda kurung dapat mengingatkan Claude untuk tetap berkarakter, bahkan untuk percakapan yang lebih panjang dan kompleks. Ini sangat kuat ketika dikombinasikan dengan role prompting dalam parameter system.Dapatkan inspirasi dari pilihan prompt yang dikurasi untuk berbagai tugas dan kasus penggunaan.