Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Quais proteções específicas o recurso de validação de segurança (Guardrails) do OpenAI Agents SDK permite?

2025-08-30 1.4 K

Explicação das funções de autenticação de segurança

O SDK do OpenAI Agents oferece várias camadas de segurança por meio do mecanismo Guardrails:

1. validação de entrada

  • Filtragem de conteúdo: bloqueia solicitações inadequadas ou confidenciais
  • Reconhecimento de intenção: por exemplo, detectar se está sendo feita uma tentativa de fazer com que uma IA conclua uma tarefa
  • Verificação de formato: garantir que a entrada esteja em conformidade com a estrutura esperada

2. controle de saída

  • Revisão dos resultados: filtragem de respostas inadequadas
  • Restrições de tipo: forçam a saída de uma estrutura de dados especificada
  • Verificação da lógica: verificar a razoabilidade dos resultados

Exemplo típico de implementação

A seguir, uma implementação do Maths Homework Intercept:

@input_guardrail
async def math_guardrail(ctx, agent, input):
    result = await Runner.run(guardrail_agent, input)
    return GuardrailFunctionOutput(
        tripwire_triggered=result.final_output.is_math_homework,
        output_info=result.final_output.reasoning
    )

aplicativo avançado

Os desenvolvedores podem combinar vários recursos do Guardrails para implementar: análise de conformidade, qualificação de domínio de especialização, filtragem de informações confidenciais e outras políticas de segurança complexas. O sistema encerrará automaticamente o processo ou retornará uma mensagem de aviso predefinida no caso de uma falha de autenticação.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil