Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Schutzmaßnahmen verstärken

    Prompt-Lecks reduzieren

    Strategien zur Reduzierung von Prompt-Lecks und zum Schutz sensibler Informationen

    Prompt-Lecks können sensible Informationen offenlegen, die Sie in Ihrem Prompt "versteckt" erwarten. Obwohl keine Methode narrensicher ist, können die folgenden Strategien das Risiko erheblich reduzieren.

    Bevor Sie versuchen, Prompt-Lecks zu reduzieren

    Wir empfehlen, Leak-resistente Prompt-Engineering-Strategien nur dann zu verwenden, wenn dies absolut notwendig ist. Versuche, Ihren Prompt lecksicher zu machen, können Komplexität hinzufügen, die die Leistung in anderen Teilen der Aufgabe beeinträchtigen kann, da die Gesamtkomplexität der Aufgabe des LLM erhöht wird.

    Wenn Sie sich für die Implementierung von Leak-resistenten Techniken entscheiden, testen Sie Ihre Prompts gründlich, um sicherzustellen, dass die zusätzliche Komplexität die Leistung des Modells oder die Qualität seiner Ausgaben nicht negativ beeinflusst.

    Versuchen Sie zunächst Überwachungstechniken wie Ausgabe-Screening und Nachbearbeitung, um Fälle von Prompt-Lecks zu erfassen.

    Strategien zur Reduzierung von Prompt-Lecks

    • Kontext von Abfragen trennen: Sie können versuchen, System-Prompts zu verwenden, um wichtige Informationen und Kontext von Benutzerabfragen zu isolieren. Sie können wichtige Anweisungen in der User-Runde hervorheben und diese Anweisungen dann durch Vorausfüllung der Assistant-Runde erneut hervorheben. (Hinweis: Vorausfüllung ist veraltet und wird auf Claude Opus 4.6 und Sonnet 4.5 nicht unterstützt.)

    • Nachbearbeitung verwenden: Filtern Sie die Ausgaben von Claude nach Schlüsselwörtern, die auf ein Leck hindeuten könnten. Techniken umfassen die Verwendung von regulären Ausdrücken, Schlüsselwortfilterung oder anderen Textverarbeitungsmethoden.
      Sie können auch ein gesteuertes LLM verwenden, um Ausgaben auf nuanciertere Lecks zu filtern.
    • Unnötige proprietäre Details vermeiden: Wenn Claude diese nicht benötigt, um die Aufgabe auszuführen, fügen Sie sie nicht ein. Zusätzlicher Inhalt lenkt Claude von der Konzentration auf "kein Leck"-Anweisungen ab.
    • Regelmäßige Audits: Überprüfen Sie Ihre Prompts und die Ausgaben von Claude regelmäßig auf mögliche Lecks.

    Denken Sie daran, dass das Ziel nicht nur darin besteht, Lecks zu verhindern, sondern auch Claudes Leistung zu erhalten. Übermäßig komplexe Leck-Prävention kann die Ergebnisse verschlechtern. Balance ist der Schlüssel.

    Was this page helpful?

    • Bevor Sie versuchen, Prompt-Lecks zu reduzieren
    • Strategien zur Reduzierung von Prompt-Lecks