Barrières de protection Amazon Bedrock
Mettez en œuvre des mesures de protection adaptées aux exigences de votre application et à des politiques d'IA responsablesCréation d’applications d’IA responsables avec les barrières de protection Amazon Bedrock
Les barrières de protection Amazon Bedrock fournissent des protections personnalisables supplémentaires en plus des protections natives des modèles de fondation (FM), offrant des protections de sécurité parmi les meilleures du secteur en :
- bloquant jusqu’à 85 % de contenus dangereux en plus ;
- filtrant plus de 75 % de réponses hallucinées pour les charges de travail de RAG et de synthèse ;
- permettant aux clients de personnaliser et d’appliquer des protections en matière de sécurité, de confidentialité et de véracité au sein d’une solution unique.
Garantissez un niveau constant de sécurité de l'IA dans toutes vos applications
Les garde-fous Amazon Bedrock évaluent les entrées des utilisateurs et les réponses FM en fonction de politiques spécifiques aux cas d’utilisation, et fournit un niveau de protection supplémentaire quel que soit le FM sous-jacent. Les garde-fous Amazon Bedrock sont la seule fonctionnalité d’IA responsable proposée par un important fournisseur de cloud qui permet aux clients de créer et de personnaliser des protections en matière de sécurité, de confidentialité et de véracité pour leurs applications d’IA génératives dans une solution unique, et elle fonctionne avec tous les grands modèles de langage (LLM) d’Amazon Bedrock, ainsi qu’avec les modèles affinés. Les clients peuvent créer plusieurs barrières de protection, chacune configurée avec une combinaison différente de contrôles, et utiliser ces barrières de protection dans différentes applications et différents cas d’utilisation. Les barrières de protection Amazon Bedrock peuvent également être intégrées aux agents et aux bases de connaissances Amazon Bedrock afin de créer des applications d’IA générative conformes à vos politiques d’IA responsable. En outre, les garde-fous Amazon Bedrock proposent une API ApplyGuardrail pour évaluer les entrées des utilisateurs et modéliser les réponses générées par tout FM personnalisé ou tiers en dehors de Bedrock.
Bloquer les sujets indésirables dans vos applications d'IA générative
Les entreprises reconnaissent la nécessité de gérer les interactions au sein des applications d'IA générative pour une expérience utilisateur pertinente et sûre. Elles souhaitent personnaliser davantage les interactions afin de rester sur des sujets pertinents pour leur activité et de les aligner sur les politiques de l'entreprise. À l’aide d’une courte description en langage naturel, les garde-fous Amazon Bedrock vous permettent de définir un ensemble de sujets à éviter dans le contexte de votre application. Les garde-fous Amazon Bedrock détectent et bloquent les entrées des utilisateurs et les réponses des FM qui relèvent des sujets restreints. Par exemple, un assistant bancaire peut être conçu pour éviter les sujets liés aux conseils en investissement.
Filtrer les contenus nuisibles en fonction de vos politiques d'IA responsables
Les barrières de protection Amazon Bedrock fournissent des filtres de contenu avec des seuils configurables pour filtre les contenus nuisibles dans les catégories de haine, d’insultes, de sexualité, de violence, de mauvaise conduite (y compris l’activité criminelle), et pour se prémunir contre les attaques par requêtes (injection de requête et débridage). La plupart des FM fournissent déjà des protections intégrées pour empêcher la génération de réponses nuisibles. Outre ces protections, les barrières de protection Amazon Bedrock vous permettent de configurer des seuils dans les différentes catégories de contenu afin de filtrer les interactions nuisibles. L'augmentation de la résistance du filtre augmente l'agressivité du filtrage. Elles évaluent automatiquement les saisies des utilisateurs et les réponses du modèle afin de détecter et d’empêcher le contenu les contenus qui correspondent à des catégories restreintes. Par exemple, un site d'e-commerce peut concevoir son assistant en ligne de manière à éviter d'utiliser un langage inapproprié tel que des paroles haineuses ou des insultes.
Supprimez les informations sensibles (PII) afin de protéger la confidentialité
Les garde-fous Amazon Bedrock peuvent vous aider à détecter les contenus sensibles tels que les données d’identification personnelle (PII) dans les entrées des utilisateurs et les réponses des FM. Vous pouvez effectuer une sélection parmi une liste de PII prédéfinies ou définir un type d'information sensible personnalisé à l'aide d'expressions régulières (RegEx). Selon le cas d’utilisation, vous pouvez rejeter de manière sélective les entrées contenant des informations sensibles ou les supprimer dans les réponses des FM. Par exemple, vous pouvez supprimer les informations personnelles des utilisateurs tout en générant des résumés à partir des transcriptions des conversations entre les clients et les agents dans un centre d'appels.
Bloquez le contenu inapproprié à l’aide d’un filtre de mots personnalisé
Les garde-fous Amazon Bedrock vous aident à configurer un ensemble de mots ou de phrases personnalisés que vous souhaitez détecter et bloquer lors de l’interaction entre vos utilisateurs et les applications d’IA générative. Cela vous permettra également de détecter et de bloquer le langage grossier ainsi que des mots personnalisés spécifiques tels que les noms de concurrents ou d'autres mots offensants.
Détection des hallucinations dans les réponses des modèles à l’aide de vérifications contextuelles
Les organisations doivent déployer des applications d’IA génératives véridiques et fiables pour maintenir et renforcer la confiance des utilisateurs. Cependant, les applications créées à l’aide de FM peuvent générer des informations incorrectes en raison d’hallucinations. Par exemple, les FM peuvent générer des réponses qui s’écartent des informations sources, fusionner plusieurs informations ou inventer de nouvelles informations. Les garde-fous Amazon Bedrock prennent en charge des vérifications contextuelles pour aider à détecter et à filtrer les hallucinations si les réponses ne sont pas fondées (par exemple, des informations factuelles inexactes ou nouvelles) dans les informations sources et ne sont pas pertinentes par rapport à la requête ou aux instructions de l’utilisateur. Les vérifications contextuelles peuvent être utilisées pour détecter les hallucinations pour les applications RAG, de synthèse et conversationnelles, où les informations sources peuvent être utilisées comme référence pour valider la réponse du modèle.
Étapes suivantes
Avez-vous trouvé ce que vous recherchiez aujourd’hui ?
Faites-le nous savoir afin que nous puissions améliorer la qualité du contenu de nos pages.