Loading...
    • Panduan Pengembang
    • Referensi API
    • MCP
    • Sumber daya
    • Catatan Rilis
    Search...
    ⌘K
    Langkah pertama
    Pengenalan ClaudeMulai cepat
    Model & harga
    Ikhtisar modelMemilih modelYang baru di Claude 4.5Migrasi ke Claude 4.5Penghentian modelHarga
    Bangun dengan Claude
    Ikhtisar fiturMenggunakan Messages APIJendela konteksPraktik terbaik prompting
    Kemampuan
    Prompt cachingPengeditan konteksExtended thinkingUpayaStreaming MessagesPemrosesan batchKutipanDukungan multibahasaPenghitungan tokenEmbeddingsVisiDukungan PDFFiles APIHasil pencarianOutput terstruktur
    Alat
    IkhtisarCara mengimplementasikan penggunaan alatStreaming alat berbutir halusAlat BashAlat eksekusi kodePemanggilan alat terprogramAlat penggunaan komputerAlat editor teksAlat pengambilan webAlat pencarian webAlat memoriAlat pencarian alat
    Keterampilan Agen
    IkhtisarMulai cepatPraktik terbaikMenggunakan Keterampilan dengan API
    Agent SDK
    IkhtisarMulai cepatTypeScript SDKTypeScript V2 (pratinjau)Python SDKPanduan Migrasi
    MCP di API
    Konektor MCPServer MCP jarak jauh
    Claude di platform pihak ketiga
    Amazon BedrockMicrosoft FoundryVertex AI
    Rekayasa prompt
    IkhtisarGenerator promptGunakan template promptPenyempurna promptJadilah jelas dan langsungGunakan contoh (multishot prompting)Biarkan Claude berpikir (CoT)Gunakan tag XMLBerikan Claude peran (prompt sistem)Isi sebelumnya respons ClaudeRantai prompt kompleksTips konteks panjangTips extended thinking
    Uji & evaluasi
    Tentukan kriteria kesuksesanKembangkan kasus ujiMenggunakan Alat EvaluasiMengurangi latensi
    Perkuat penjaga
    Kurangi halusinasiTingkatkan konsistensi outputMitigasi jailbreakStreaming penolakanKurangi kebocoran promptJaga Claude tetap dalam karakter
    Administrasi dan pemantauan
    Ikhtisar Admin APIAPI Penggunaan dan BiayaClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Perkuat penjaga

    Mengurangi kebocoran prompt

    Kebocoran prompt dapat mengekspos informasi sensitif yang Anda harapkan untuk tetap "tersembunyi" dalam prompt Anda. Meskipun tidak ada metode yang sempurna, strategi di bawah ini dapat secara signifikan mengurangi risiko.

    Sebelum Anda mencoba mengurangi kebocoran prompt

    Kami menyarankan untuk menggunakan strategi rekayasa prompt yang tahan kebocoran hanya ketika benar-benar diperlukan. Upaya untuk membuat prompt anti-kebocoran dapat menambah kompleksitas yang mungkin menurunkan kinerja di bagian lain dari tugas karena meningkatnya kompleksitas tugas LLM secara keseluruhan.

    Jika Anda memutuskan untuk menerapkan teknik tahan kebocoran, pastikan untuk menguji prompt Anda secara menyeluruh untuk memastikan bahwa kompleksitas tambahan tidak berdampak negatif pada kinerja model atau kualitas outputnya.

    Cobalah teknik pemantauan terlebih dahulu, seperti penyaringan output dan pemrosesan pasca, untuk mencoba menangkap kasus-kasus kebocoran prompt.

    Strategi untuk mengurangi kebocoran prompt

    • Pisahkan konteks dari kueri: Anda dapat mencoba menggunakan prompt sistem untuk mengisolasi informasi kunci dan konteks dari kueri pengguna. Anda dapat menekankan instruksi kunci dalam giliran User, kemudian menekankan kembali instruksi tersebut dengan mengisi awal giliran Assistant.

    • Gunakan pemrosesan pasca: Filter output Claude untuk kata kunci yang mungkin mengindikasikan kebocoran. Tekniknya termasuk menggunakan ekspresi reguler, penyaringan kata kunci, atau metode pemrosesan teks lainnya.
      Anda juga dapat menggunakan LLM yang diprompt untuk menyaring output untuk kebocoran yang lebih halus.
    • Hindari detail kepemilikan yang tidak perlu: Jika Claude tidak membutuhkannya untuk melakukan tugas, jangan sertakan. Konten tambahan mengalihkan perhatian Claude dari fokus pada instruksi "tidak bocor".
    • Audit rutin: Secara berkala tinjau prompt Anda dan output Claude untuk potensi kebocoran.

    Ingat, tujuannya bukan hanya mencegah kebocoran tetapi juga mempertahankan kinerja Claude. Pencegahan kebocoran yang terlalu kompleks dapat menurunkan hasil. Keseimbangan adalah kunci.

    • Sebelum Anda mencoba mengurangi kebocoran prompt
    • Strategi untuk mengurangi kebocoran prompt