Prompt-Lecks können sensible Informationen offenlegen, die Sie in Ihrem Prompt "versteckt" erwarten. Obwohl keine Methode narrensicher ist, können die folgenden Strategien das Risiko erheblich reduzieren.
Wir empfehlen, Leak-resistente Prompt-Engineering-Strategien nur dann zu verwenden, wenn dies absolut notwendig ist. Versuche, Ihren Prompt lecksicher zu machen, können Komplexität hinzufügen, die die Leistung in anderen Teilen der Aufgabe beeinträchtigen kann, da die Gesamtkomplexität der Aufgabe des LLM erhöht wird.
Wenn Sie sich für die Implementierung von Leak-resistenten Techniken entscheiden, testen Sie Ihre Prompts gründlich, um sicherzustellen, dass die zusätzliche Komplexität die Leistung des Modells oder die Qualität seiner Ausgaben nicht negativ beeinflusst.
User-Runde hervorheben und diese Anweisungen dann durch Vorausfüllung der Assistant-Runde erneut hervorheben. (Hinweis: Vorausfüllung ist veraltet und wird auf Claude Opus 4.6 und Sonnet 4.5 nicht unterstützt.)Denken Sie daran, dass das Ziel nicht nur darin besteht, Lecks zu verhindern, sondern auch Claudes Leistung zu erhalten. Übermäßig komplexe Leck-Prävention kann die Ergebnisse verschlechtern. Balance ist der Schlüssel.
Was this page helpful?