Loading...
    • Panduan Pengembang
    • Referensi API
    • MCP
    • Sumber daya
    • Catatan rilis
    Search...
    ⌘K
    Langkah pertama
    Pengenalan ClaudeMulai cepat
    Model & harga
    Ikhtisar modelMemilih modelYang baru di Claude 4.6Panduan migrasiPenghentian modelHarga
    Bangun dengan Claude
    Ikhtisar fiturMenggunakan Messages APIMenangani alasan berhentiPraktik terbaik prompting
    Manajemen konteks
    Jendela konteksKompresiPengeditan konteks
    Kemampuan
    Caching promptPemikiran diperpanjangPemikiran adaptifUpayaStreaming pesanPemrosesan batchKutipanDukungan multibahasaPenghitungan tokenEmbeddingsVisiDukungan PDFFiles APIHasil pencarianOutput terstruktur
    Alat
    IkhtisarCara mengimplementasikan penggunaan alatStreaming alat berbutir halusAlat BashAlat eksekusi kodePemanggilan alat terprogramAlat penggunaan komputerAlat editor teksAlat pengambilan webAlat pencarian webAlat memoriAlat pencarian alat
    Keterampilan Agen
    IkhtisarMulai cepatPraktik terbaikKeterampilan untuk perusahaanMenggunakan Keterampilan dengan API
    Agent SDK
    IkhtisarMulai cepatTypeScript SDKTypeScript V2 (pratinjau)Python SDKPanduan migrasi
    MCP di API
    Konektor MCPServer MCP jarak jauh
    Claude di platform pihak ketiga
    Amazon BedrockMicrosoft FoundryVertex AI
    Rekayasa prompt
    IkhtisarGenerator promptGunakan template promptPenyempurna promptJadilah jelas dan langsungGunakan contoh (prompting multishot)Biarkan Claude berpikir (CoT)Gunakan tag XMLBerikan Claude peran (prompt sistem)Rantai prompt kompleksTips konteks panjangTips pemikiran diperpanjang
    Uji & evaluasi
    Tentukan kriteria kesuksesanKembangkan kasus ujiMenggunakan alat evaluasiMengurangi latensi
    Perkuat penjaga
    Kurangi halusinasiTingkatkan konsistensi outputMitigasi jailbreakStreaming penolakanKurangi kebocoran promptJaga Claude tetap dalam karakter
    Administrasi dan pemantauan
    Ikhtisar Admin APIResidensi dataRuang kerjaAPI penggunaan dan biayaClaude Code Analytics APIRetensi data nol
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Perkuat penjaga

    Kurangi kebocoran prompt

    Strategi untuk mengurangi risiko kebocoran prompt dan melindungi informasi sensitif dalam prompt Anda.

    Kebocoran prompt dapat mengekspos informasi sensitif yang Anda harapkan untuk "tersembunyi" dalam prompt Anda. Meskipun tidak ada metode yang sempurna, strategi di bawah ini dapat secara signifikan mengurangi risiko.

    Sebelum Anda mencoba mengurangi kebocoran prompt

    Kami merekomendasikan menggunakan strategi rekayasa prompt yang tahan kebocoran hanya ketika benar-benar diperlukan. Upaya untuk membuat prompt Anda tahan kebocoran dapat menambah kompleksitas yang mungkin menurunkan kinerja di bagian lain dari tugas karena meningkatkan kompleksitas keseluruhan tugas LLM.

    Jika Anda memutuskan untuk menerapkan teknik yang tahan kebocoran, pastikan untuk menguji prompt Anda secara menyeluruh untuk memastikan bahwa kompleksitas yang ditambahkan tidak berdampak negatif pada kinerja model atau kualitas outputnya.

    Coba teknik pemantauan terlebih dahulu, seperti penyaringan output dan pasca-pemrosesan, untuk mencoba menangkap contoh kebocoran prompt.

    Strategi untuk mengurangi kebocoran prompt

    • Pisahkan konteks dari kueri: Anda dapat mencoba menggunakan prompt sistem untuk mengisolasi informasi kunci dan konteks dari kueri pengguna. Anda dapat menekankan instruksi kunci dalam giliran User, kemudian menekankan kembali instruksi tersebut dengan prefilling giliran Assistant. (Catatan: prefilling sudah usang dan tidak didukung pada Claude Opus 4.6 dan Sonnet 4.5.)

    • Gunakan pasca-pemrosesan: Filter output Claude untuk kata kunci yang mungkin menunjukkan kebocoran. Teknik termasuk menggunakan ekspresi reguler, penyaringan kata kunci, atau metode pemrosesan teks lainnya.
      Anda juga dapat menggunakan LLM yang diprompt untuk memfilter output untuk kebocoran yang lebih bernuansa.
    • Hindari detail proprietary yang tidak perlu: Jika Claude tidak membutuhkannya untuk melakukan tugas, jangan sertakan. Konten tambahan mengalihkan perhatian Claude dari fokus pada instruksi "tanpa kebocoran".
    • Audit reguler: Secara berkala tinjau prompt Anda dan output Claude untuk potensi kebocoran.

    Ingat, tujuannya bukan hanya untuk mencegah kebocoran tetapi untuk mempertahankan kinerja Claude. Pencegahan kebocoran yang terlalu kompleks dapat menurunkan hasil. Keseimbangan adalah kunci.

    Was this page helpful?

    • Sebelum Anda mencoba mengurangi kebocoran prompt
    • Strategi untuk mengurangi kebocoran prompt