Amazon Bedrock Guardrails

Implementa misure di protezione personalizzate in base ai requisiti delle tue applicazioni e alle politiche di IA responsabile

Crea applicazioni di IA responsabile con Amazon Bedrock Guardrails

Amazon Bedrock Guardrails offre protezioni aggiuntive personalizzabili in aggiunta alle protezioni native dei modelli di fondazione (FM), offrendo protezioni di sicurezza tra le migliori del settore poiché:

  • Blocca fino all'85% in più di contenuti dannosi
  • Filtra oltre il 75% delle risposte caratterizzate da allucinazione dell'IA per i carichi di lavoro RAG e di sintesi
  • Consente ai clienti di personalizzare e applicare le protezioni di sicurezza, privacy e veridicità in un'unica soluzione

Offri un livello costante di sicurezza dell'IA in tutte le tue applicazioni

Amazon Bedrock Guardrails valuta gli input degli utenti e le risposte dei modelli di fondazione (FM) in base a policy specifiche dei casi d'uso, fornendo un ulteriore livello di protezione indipendentemente dall'FM sottostante. Amazon Bedrock Guardrails, l'unica funzionalità di IA responsabile offerta da un importante provider di cloud, consente ai clienti di creare e personalizzare protezioni di sicurezza, privacy e veridicità per le loro applicazioni di IA generativa in un'unica soluzione ed è compatibile con tutti i modelli linguistici di grandi dimensioni (LLM) di Amazon Bedrock e con i modelli ottimizzati. I clienti possono creare diversi guardrail, ognuno configurato con una diversa combinazione di controlli, e utilizzarli in diverse applicazioni e casi d'uso. Amazon Bedrock Guardrails può anche essere integrato con Amazon Bedrock Agents e Amazon Bedrock Knowledge Bases per creare applicazioni di IA generativa in linea con le policy di IA responsabile della tua azienda. Inoltre, Amazon Bedrock Guardrails offre l'API ApplyGuardrail per valutare gli input degli utenti e modellare le risposte generate da qualsiasi FM personalizzato o di terze parti al di fuori di Bedrock.

schermata dell'interfaccia utente

Blocca argomenti indesiderati nelle tue applicazioni di IA generativa

Le organizzazioni riconoscono la necessità di gestire le interazioni all'interno delle applicazioni di IA generativa per un'esperienza utente pertinente e sicura. Desiderano personalizzare ulteriormente le interazioni, per rimanere su argomenti pertinenti alla loro attività e allinearsi alle politiche aziendali. Utilizzando una breve descrizione in linguaggio naturale, Amazon Bedrock Guardrails consente di definire una serie di argomenti da evitare nel contesto dell'applicazione. Amazon Bedrock Guardrails rileva e blocca gli input dell'utente e le risposte degli FM che rientrano negli argomenti sottoposti a restrizioni. Ad esempio, un assistente bancario può essere progettato per evitare argomenti relativi alla consulenza in materia di investimenti.

guardrail per filtri di contenuti Amazon Bedrock

Filtra i contenuti dannosi in base alle tue politiche di intelligenza artificiale responsabili

Amazon Bedrock Guardrails offre filtri per i contenuti con soglie configurabili per filtrare i contenuti dannosi catalogati in varie categorie, tra cui odio, insulti, sesso, violenza e comportamenti scorretti (incluse le attività criminali), e per proteggere dagli attacchi tramite prompt (prompt injection e jailbreak). La maggior parte degli FM fornisce già protezioni integrate per prevenire la generazione di risposte dannose. Oltre a queste protezioni, Amazon Bedrock Guardrails consente di configurare soglie per le diverse categorie per filtrare le interazioni dannose. L'aumento della resistenza del filtro intensifica l'aggressività del processo di filtraggio. I filtri valutano automaticamente sia l'input dell'utente sia le risposte del modello per rilevare e aiutare a prevenire i contenuti che rientrano nelle categorie sottoposte a restrizioni. Ad esempio, un sito di e-commerce può progettare il proprio assistente online per evitare l'uso di un linguaggio inappropriato, come incitamento all'odio o insulti.

guardrail per gli argomenti negati da Amazon Bedrock

Redazione delle Informazioni di identificazione personale (PII) per proteggere la privacy

Amazon Bedrock Guardrails consente di rilevare contenuti sensibili, come le informazioni di identificazione personale (PII), all'interno degli input degli utenti e nelle risposte degli FM. È possibile selezionare da un elenco di Informazioni di identificazione personale (PII) o definire un tipo di informazioni sensibili personalizzato utilizzando espressioni regolari (RegEx). In base al caso d'uso, è possibile rifiutare selettivamente gli input contenenti PII oppure oscurare le PII nelle risposte FM. Ad esempio, puoi oscurare le informazioni personali degli utenti mentre generi riepiloghi delle trascrizioni delle conversazioni con clienti e agenti in un call center.

pseudonimizzazione e icona gdpr

Blocca i contenuti inappropriati con un filtro personalizzato per il linguaggio

Amazon Bedrock Guardrails permette di configurare un set di parole o frasi personalizzate che si desidera rilevare e bloccare nell'interazione tra gli utenti e le applicazioni di IA generativa. Ciò consentirà anche di rilevare e bloccare eventuali parolacce e parole personalizzate specifiche come i nomi dei concorrenti o altre parole offensive.

schermata del filtro per i contenuti

Rileva le allucinazioni nelle risposte fornite dal modello utilizzando controlli di base contestuali

Le organizzazioni devono implementare applicazioni di IA generativa veritiere e affidabili per mantenere e accrescere la fiducia degli utenti. Tuttavia, le applicazioni create utilizzando gli FM possono generare informazioni errate a causa di allucinazioni. Ad esempio, i FM possono generare risposte che si discostano dalle informazioni originarie, confondere più informazioni o inventarne di nuove. Amazon Bedrock Guardrails supporta controlli contestuali per rilevare e filtrare le allucinazioni se le risposte non sono adeguate (ad esempio, informazioni nuove o di fatto inesatte) rispetto alle informazioni di origine e non sono pertinenti alla domanda o alle istruzioni immesse dall'utente. I controlli di base contestuali possono essere utilizzati per rilevare allucinazioni per applicazioni RAG, di riepilogo e di conversazione, in cui le informazioni di origine possono essere utilizzate come riferimento per convalidare la risposta del modello.

Rileva le allucinazioni nelle risposte fornite dal modello utilizzando controlli di base contestuali