Was this page helpful?
Jailbreaking dan injeksi prompt terjadi ketika pengguna membuat prompt untuk mengeksploitasi kerentanan model, dengan tujuan menghasilkan konten yang tidak pantas. Meskipun Claude secara inheren tahan terhadap serangan semacam itu, berikut adalah langkah-langkah tambahan untuk memperkuat penjaga Anda, khususnya terhadap penggunaan yang melanggar Syarat Layanan atau Kebijakan Penggunaan kami.
Layar keamanan: Gunakan model ringan seperti Claude Haiku 4.5 untuk pra-pemeriksaan input pengguna. Gunakan keluaran terstruktur untuk membatasi respons menjadi klasifikasi sederhana.
Validasi input: Filter prompt untuk pola jailbreaking. Anda bahkan dapat menggunakan LLM untuk membuat layar validasi yang digeneralisasi dengan memberikan bahasa jailbreaking yang diketahui sebagai contoh.
Rekayasa prompt: Buat prompt yang menekankan batas-batas etika dan hukum.
Sesuaikan respons dan pertimbangkan pembatasan kecepatan atau pelarangan pengguna yang berulang kali terlibat dalam perilaku kasar yang mencoba melewati penjaga Claude. Misalnya, jika pengguna tertentu memicu jenis penolakan yang sama berkali-kali (misalnya, "output diblokir oleh kebijakan penyaringan konten"), beri tahu pengguna bahwa tindakan mereka melanggar kebijakan penggunaan yang relevan dan ambil tindakan yang sesuai.
Gabungkan strategi untuk perlindungan yang kuat. Berikut adalah contoh tingkat perusahaan dengan penggunaan alat:
Dengan melapisi strategi-strategi ini, Anda menciptakan pertahanan yang kuat terhadap jailbreaking dan injeksi prompt, memastikan aplikasi bertenaga Claude Anda mempertahankan standar keamanan dan kepatuhan tertinggi.