Amazon Bedrock – Integritätsschutz
Implementieren Sie Schutzmaßnahmen, die auf Ihre Anwendungsanforderungen und verantwortungsvollen KI-Richtlinien zugeschnitten sind.Verantwortungsvolle KI-Anwendungen mit Amazon-Bedrock-Integritätsschutz entwickeln
Amazon-Bedrock-Integritätsschutz stellt zusätzlich zu den nativen Schutzfunktionen von FMs weitere anpassbare Sicherheitsfunktionen bereit und bietet damit einen Sicherheitsschutz, der zu den besten in der Branche gehört:
- Blockierung von bis zu 85 % mehr schädlichen Inhalten
- Filterung von über 75 % der halluzinierten Antworten für RAG und Zusammenfassung des Workloads
- Kunden die Möglichkeit geben, Sicherheits-, Datenschutz- und Wahrheitsschutzfunktionen in einer einzigen Lösung anzupassen und anzuwenden
Ein einheitliches Maß an KI-Sicherheit für alle Ihre Anwendungen
Amazon-Bedrock-Integritätsschutz hilft bei der Bewertung von Benutzereingaben und FM-Antworten basierend auf anwendungsfallspezifischen Richtlinien und bietet unabhängig vom zugrunde liegenden FM eine zusätzliche Sicherheitsebene. Amazon-Bedrock-Integritätsschutz ist die einzige verantwortungsvolle KI-Funktion, die von einem großen Cloud-Anbieter angeboten wird. Sie ermöglicht es Kunden, Sicherheits-, Datenschutz- und Wahrheitsschutzfunktionen für ihre generativen KI-Anwendungen in einer einzigen Lösung zu erstellen und anzupassen. Sie funktioniert mit allen großen Sprachmodellen (LLMs) in Amazon Bedrock sowie mit fein abgestimmten Modellen. Kunden können mehrere Integritätsschutzmaßnahmen erstellen, die jeweils mit einer anderen Kombination von Steuerelementen konfiguriert sind, und diesen Integritätsschutz für verschiedene Anwendungen und Anwendungsfälle verwenden. Amazon-Bedrock-Integritätsschutz kann auch in Amazon-Bedrock-Kundendienstmitarbeiter und Amazon-Bedrock-Wissensdatenbanken integriert werden, um Anwendungen der generativen KI zu erstellen, die Ihren Richtlinien für verantwortungsvolle KI entsprechen. Darüber hinaus bietet Amazon-Bedrock-Integritätsschutz eine ApplyGuardrail API zur Auswertung von Benutzereingaben und Modellantworten, die von benutzerdefinierten oder Drittanbieter-FM außerhalb von Bedrock generiert werden.
Blockieren Sie unerwünschte Themen in Ihren generativen KI-Anwendungen
Unternehmen erkennen die Notwendigkeit, Interaktionen innerhalb generativer KI-Anwendungen zu verwalten, um ein relevantes und sicheres Nutzererlebnis zu gewährleisten. Diese möchten die Interaktionen weiter anpassen, damit sie sich auf Themen konzentrieren, die für ihr Unternehmen relevant sind, und sich an den Unternehmensrichtlinien orientieren. Mithilfe einer kurzen Beschreibung in natürlicher Sprache hilft Ihnen Amazon-Bedrock-Integritätsschutz dabei, eine Reihe von Themen zu definieren, die im Kontext Ihrer Anwendung zu vermeiden sind. Amazon-Bedrock-Integritätsschutz hilft bei der Erkennung und Blockierung von Benutzereingaben und FM-Antworten, die in die eingeschränkten Themen fallen. Beispielsweise kann ein Bankassistent so konzipiert werden, dass er Themen im Zusammenhang mit Anlageberatung vermeidet.
Filtern Sie schädliche Inhalte auf der Grundlage Ihrer Richtlinien für verantwortungsvolle KI
Amazon-Bedrock-Integritätsschutz bietet Inhaltsfilter mit konfigurierbaren Schwellenwerten, um schädliche Inhalte wie Hass, Beleidigungen, sexuelle Inhalte, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) zu filtern und vor Prompt-Angriffen (Prompt-Injektion und Jailbreak) zu schützen. Die meisten FMs verfügen bereits über integrierte Schutzmaßnahmen, um die Entstehung schädlicher Reaktionen zu verhindern. Zusätzlich zu diesen Schutzmaßnahmen können Sie über Amazon-Bedrock-Integritätsschutz Schwellenwerte für die verschiedenen Inhaltskategorien konfigurieren, um schädliche Interaktionen herauszufiltern. Eine Erhöhung der Filterstärke erhöht die Aggressivität der Filterung. Sie werten sowohl Benutzereingaben als auch Modellantworten automatisch aus, um Inhalte zu erkennen und zu verhindern, die in eingeschränkte Kategorien fallen. Beispielsweise kann eine E-Commerce-Website ihren Online-Assistenten so gestalten, dass unangemessene Ausdrücke wie Hassreden oder Beleidigungen vermieden werden.
Vertrauliche Informationen (PII) zum Schutz der Privatsphäre zensieren
Amazon-Bedrock-Integritätsschutz kann dabei helfen, vertrauliche Inhalte wie persönlich identifizierbare Informationen (PII) in Benutzereingaben und FM-Antworten zu erkennen. Sie können aus einer Liste vordefinierter PII auswählen oder mithilfe regulärer Ausdrücke (RegEx) einen benutzerdefinierten Typ vertraulicher Informationen definieren. Je nach Anwendungsfall können Sie Eingaben, die vertrauliche Informationen enthalten, selektiv ablehnen oder sie in FM-Antworten zensieren. So können Sie z. B. in einem Callcenter die persönlichen Daten der Benutzer bei der Erstellung von Zusammenfassungen aus Gesprächsprotokollen von Kunden und Kundendienstmitarbeitern schwärzen.
Unangemessene Inhalte mit einem benutzerdefinierten Wortfilter blockieren
Amazon-Bedrock-Integritätsschutz hilft Ihnen, eine Reihe von benutzerdefinierten Wörtern oder Ausdrücken zu konfigurieren, die Sie bei der Interaktion zwischen Ihren Benutzern und generativen KI-Anwendungen erkennen und blockieren möchten. Auf diese Weise können Sie auch Obszönitäten sowie bestimmte benutzerdefinierte Wörter wie Konkurrenznamen oder andere anstößige Wörter erkennen und blockieren.
Erkennen von Halluzinationen in Modellantworten mithilfe von kontextuellen Erdungstests
Organisationen müssen wahrheitsgemäße und vertrauenswürdige Anwendungen für generative KI bereitstellen, um das Vertrauen der Nutzer zu erhalten und zu stärken. Allerdings können Anwendungen, die mit FMs erstellt wurden, aufgrund von Halluzinationen falsche Informationen generieren. Beispielsweise können FM Antworten generieren, die von den ursprünglichen Informationen abweichen, mehrere Informationen zusammenfassen oder neue Informationen erfinden. Amazon-Bedrock-Integritätsschutz unterstützt kontextbezogene Integritätsprüfungen, um Halluzinationen zu erkennen und zu filtern, wenn die Antworten nicht in den Quellinformationen verankert sind (beispielsweise sachlich falsch oder neue Informationen) und für die Anfrage oder Anweisung des Benutzers irrelevant sind. Kontextbezogene Integritätsprüfungen können helfen, Halluzinationen für RAG-, Zusammenfassungs- und Konversationsanwendungen zu erkennen, bei denen Quellinformationen als Referenz zur Validierung der Modellantwort verwendet werden können.
Nächste Schritte
Haben Sie die gewünschten Informationen gefunden?
Ihr Beitrag hilft uns, die Qualität der Inhalte auf unseren Seiten zu verbessern.