Loading...
    • Panduan Pengembang
    • Referensi API
    • MCP
    • Sumber daya
    • Catatan Rilis
    Search...
    ⌘K
    Langkah pertama
    Pengenalan ClaudeMulai cepat
    Model & harga
    Ikhtisar modelMemilih modelYang baru di Claude 4.5Migrasi ke Claude 4.5Penghentian modelHarga
    Bangun dengan Claude
    Ikhtisar fiturMenggunakan Messages APIJendela konteksPraktik terbaik prompting
    Kemampuan
    Prompt cachingPengeditan konteksExtended thinkingUpayaStreaming MessagesPemrosesan batchKutipanDukungan multibahasaPenghitungan tokenEmbeddingsVisiDukungan PDFFiles APIHasil pencarianOutput terstruktur
    Alat
    IkhtisarCara mengimplementasikan penggunaan alatStreaming alat berbutir halusAlat BashAlat eksekusi kodePemanggilan alat terprogramAlat penggunaan komputerAlat editor teksAlat pengambilan webAlat pencarian webAlat memoriAlat pencarian alat
    Keterampilan Agen
    IkhtisarMulai cepatPraktik terbaikMenggunakan Keterampilan dengan API
    Agent SDK
    IkhtisarMulai cepatTypeScript SDKTypeScript V2 (pratinjau)Python SDKPanduan Migrasi
    MCP di API
    Konektor MCPServer MCP jarak jauh
    Claude di platform pihak ketiga
    Amazon BedrockMicrosoft FoundryVertex AI
    Rekayasa prompt
    IkhtisarGenerator promptGunakan template promptPenyempurna promptJadilah jelas dan langsungGunakan contoh (multishot prompting)Biarkan Claude berpikir (CoT)Gunakan tag XMLBerikan Claude peran (prompt sistem)Isi sebelumnya respons ClaudeRantai prompt kompleksTips konteks panjangTips extended thinking
    Uji & evaluasi
    Tentukan kriteria kesuksesanKembangkan kasus ujiMenggunakan Alat EvaluasiMengurangi latensi
    Perkuat penjaga
    Kurangi halusinasiTingkatkan konsistensi outputMitigasi jailbreakStreaming penolakanKurangi kebocoran promptJaga Claude tetap dalam karakter
    Administrasi dan pemantauan
    Ikhtisar Admin APIAPI Penggunaan dan BiayaClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Uji & evaluasi

    Menggunakan Alat Evaluasi

    Claude Console menampilkan alat Evaluasi yang memungkinkan Anda menguji prompt Anda dalam berbagai skenario.

    Mengakses Fitur Evaluate

    Untuk memulai dengan alat Evaluasi:

    1. Buka Claude Console dan navigasikan ke editor prompt.
    2. Setelah menyusun prompt Anda, cari tab 'Evaluate' di bagian atas layar.

    Mengakses Fitur Evaluate

    Pastikan prompt Anda menyertakan setidaknya 1-2 variabel dinamis menggunakan sintaks kurung kurawal ganda: {{variable}}. Ini diperlukan untuk membuat set tes eval.

    Menghasilkan Prompt

    Console menawarkan generator prompt bawaan yang didukung oleh Claude Opus 4.1:

    1. 1

      Klik 'Generate Prompt'

      Mengklik alat bantu 'Generate Prompt' akan membuka modal yang memungkinkan Anda memasukkan informasi tugas Anda.

    2. 2

      Deskripsikan tugas Anda

      Deskripsikan tugas yang Anda inginkan (misalnya, "Triase permintaan dukungan pelanggan masuk") dengan detail sebanyak atau sesedikit yang Anda inginkan. Semakin banyak konteks yang Anda sertakan, semakin Claude dapat menyesuaikan prompt yang dihasilkannya dengan kebutuhan spesifik Anda.

    3. 3

      Hasilkan prompt Anda

      Mengklik tombol oranye 'Generate Prompt' di bagian bawah akan membuat Claude menghasilkan prompt berkualitas tinggi untuk Anda. Anda kemudian dapat lebih meningkatkan prompt tersebut menggunakan layar Evaluasi di Console.

    Fitur ini memudahkan pembuatan prompt dengan sintaks variabel yang sesuai untuk evaluasi.

    Generator Prompt

    Membuat Kasus Uji

    Ketika Anda mengakses layar Evaluasi, Anda memiliki beberapa opsi untuk membuat kasus uji:

    1. Klik tombol '+ Add Row' di kiri bawah untuk menambahkan kasus secara manual.
    2. Gunakan fitur 'Generate Test Case' untuk membuat Claude secara otomatis menghasilkan kasus uji untuk Anda.
    3. Impor kasus uji dari file CSV.

    Untuk menggunakan fitur 'Generate Test Case':

    1. 1

      Klik pada 'Generate Test Case'

      Claude akan menghasilkan kasus uji untuk Anda, satu baris pada satu waktu untuk setiap kali Anda mengklik tombol.

    2. 2

      Edit logika generasi (opsional)

      Anda juga dapat mengedit logika generasi kasus uji dengan mengklik dropdown panah di sebelah kanan tombol 'Generate Test Case', kemudian pada 'Show generation logic' di bagian atas jendela Variables yang muncul. Anda mungkin harus mengklik `Generate' di kanan atas jendela ini untuk mengisi logika generasi awal.

      Mengedit ini memungkinkan Anda menyesuaikan dan menyempurnakan kasus uji yang dihasilkan Claude dengan presisi dan spesifisitas yang lebih besar.

    Berikut adalah contoh layar Evaluasi yang terisi dengan beberapa kasus uji:

    Layar Evaluasi Terisi

    Jika Anda memperbarui teks prompt asli Anda, Anda dapat menjalankan ulang seluruh rangkaian eval terhadap prompt baru untuk melihat bagaimana perubahan mempengaruhi kinerja di semua kasus uji.

    Tips untuk Evaluasi yang Efektif

    Gunakan alat bantu 'Generate a prompt' di Console untuk dengan cepat membuat prompt dengan sintaks variabel yang sesuai untuk evaluasi.

    Memahami dan membandingkan hasil

    Alat Evaluasi menawarkan beberapa fitur untuk membantu Anda menyempurnakan prompt Anda:

    1. Perbandingan berdampingan: Bandingkan output dari dua atau lebih prompt untuk dengan cepat melihat dampak perubahan Anda.
    2. Penilaian kualitas: Nilai kualitas respons pada skala 5 poin untuk melacak peningkatan kualitas respons per prompt.
    3. Versioning prompt: Buat versi baru dari prompt Anda dan jalankan ulang rangkaian tes untuk dengan cepat beriterasi dan meningkatkan hasil.

    Dengan meninjau hasil di seluruh kasus uji dan membandingkan versi prompt yang berbeda, Anda dapat melihat pola dan membuat penyesuaian yang tepat pada prompt Anda dengan lebih efisien.

    Mulai evaluasi prompt Anda hari ini untuk membangun aplikasi AI yang lebih kuat dengan Claude!

    • Mengakses Fitur Evaluate
    • Menghasilkan Prompt
    • Membuat Kasus Uji
    • Tips untuk Evaluasi yang Efektif
    • Memahami dan membandingkan hasil