Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.5Migration zu Claude 4.5ModellabschreibungenPreise
    Mit Claude erstellen
    FunktionsübersichtMessages API verwendenKontextfensterBest Practices für Prompts
    Fähigkeiten
    Prompt-CachingKontext-BearbeitungErweitertes DenkenAufwandStreaming MessagesBatch-VerarbeitungZitateMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte Ausgaben
    Tools
    ÜbersichtTool-Nutzung implementierenFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Fetch-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Vorschau)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot-Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System-Prompts)Claudes Antwort vorausfüllenKomplexe Prompts verkettenTipps für langen KontextTipps für erweitertes Denken
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungs-Tool verwendenLatenz reduzieren
    Schutzvorrichtungen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtNutzungs- und Kosten-APIClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Schutzvorrichtungen verstärken

    Prompt-Leaks reduzieren

    Prompt-Leaks können sensible Informationen preisgeben, die eigentlich in Ihrem Prompt "verborgen" bleiben sollten. Auch wenn keine Methode hundertprozentig sicher ist, können die folgenden Strategien das Risiko deutlich reduzieren.

    Bevor Sie versuchen, Prompt-Leaks zu reduzieren

    Wir empfehlen, leak-resistente Prompt-Engineering-Strategien nur dann einzusetzen, wenn dies unbedingt erforderlich ist. Versuche, Ihren Prompt leak-sicher zu machen, können eine Komplexität hinzufügen, die die Leistung in anderen Bereichen der Aufgabe beeinträchtigen kann, da die Gesamtaufgabe des LLM komplexer wird.

    Wenn Sie sich für die Implementierung leak-resistenter Techniken entscheiden, testen Sie Ihre Prompts gründlich, um sicherzustellen, dass die zusätzliche Komplexität die Leistung des Modells oder die Qualität seiner Ausgaben nicht negativ beeinflusst.

    Versuchen Sie zunächst Überwachungstechniken wie Output-Screening und Nachbearbeitung, um Fälle von Prompt-Leaks zu erkennen.

    Strategien zur Reduzierung von Prompt-Leaks

    • Kontext von Anfragen trennen: Sie können versuchen, System-Prompts zu verwenden, um wichtige Informationen und Kontext von Benutzeranfragen zu isolieren. Sie können wichtige Anweisungen im User-Teil betonen und diese Anweisungen dann durch Vorausfüllen des Assistant-Teils erneut hervorheben.

    • Nachbearbeitung verwenden: Filtern Sie Claudes Ausgaben nach Schlüsselwörtern, die auf ein Leak hinweisen könnten. Zu den Techniken gehören reguläre Ausdrücke, Keyword-Filterung oder andere Textverarbeitungsmethoden.
      Sie können auch ein LLM mit Prompts verwenden, um Ausgaben auf subtilere Leaks zu filtern.
    • Vermeiden Sie unnötige proprietäre Details: Wenn Claude sie nicht zur Ausführung der Aufgabe benötigt, fügen Sie sie nicht hinzu. Zusätzliche Inhalte lenken Claude von den "No-Leak"-Anweisungen ab.
    • Regelmäßige Überprüfungen: Überprüfen Sie Ihre Prompts und Claudes Ausgaben regelmäßig auf potenzielle Leaks.

    Denken Sie daran, dass das Ziel nicht nur die Verhinderung von Leaks ist, sondern auch die Aufrechterhaltung von Claudes Leistung. Eine zu komplexe Leak-Prävention kann die Ergebnisse verschlechtern. Ausgewogenheit ist der Schlüssel.

    • Bevor Sie versuchen, Prompt-Leaks zu reduzieren
    • Strategien zur Reduzierung von Prompt-Leaks