Prompt-Leaks können sensible Informationen preisgeben, die eigentlich in Ihrem Prompt "verborgen" bleiben sollten. Auch wenn keine Methode hundertprozentig sicher ist, können die folgenden Strategien das Risiko deutlich reduzieren.
Wir empfehlen, leak-resistente Prompt-Engineering-Strategien nur dann einzusetzen, wenn dies unbedingt erforderlich ist. Versuche, Ihren Prompt leak-sicher zu machen, können eine Komplexität hinzufügen, die die Leistung in anderen Bereichen der Aufgabe beeinträchtigen kann, da die Gesamtaufgabe des LLM komplexer wird.
Wenn Sie sich für die Implementierung leak-resistenter Techniken entscheiden, testen Sie Ihre Prompts gründlich, um sicherzustellen, dass die zusätzliche Komplexität die Leistung des Modells oder die Qualität seiner Ausgaben nicht negativ beeinflusst.
User-Teil betonen und diese Anweisungen dann durch Vorausfüllen des Assistant-Teils erneut hervorheben.Denken Sie daran, dass das Ziel nicht nur die Verhinderung von Leaks ist, sondern auch die Aufrechterhaltung von Claudes Leistung. Eine zu komplexe Leak-Prävention kann die Ergebnisse verschlechtern. Ausgewogenheit ist der Schlüssel.