Explicação das funções de autenticação de segurança
O SDK do OpenAI Agents oferece várias camadas de segurança por meio do mecanismo Guardrails:
1. validação de entrada
- Filtragem de conteúdo: bloqueia solicitações inadequadas ou confidenciais
- Reconhecimento de intenção: por exemplo, detectar se está sendo feita uma tentativa de fazer com que uma IA conclua uma tarefa
- Verificação de formato: garantir que a entrada esteja em conformidade com a estrutura esperada
2. controle de saída
- Revisão dos resultados: filtragem de respostas inadequadas
- Restrições de tipo: forçam a saída de uma estrutura de dados especificada
- Verificação da lógica: verificar a razoabilidade dos resultados
Exemplo típico de implementação
A seguir, uma implementação do Maths Homework Intercept:
@input_guardrail
async def math_guardrail(ctx, agent, input):
result = await Runner.run(guardrail_agent, input)
return GuardrailFunctionOutput(
tripwire_triggered=result.final_output.is_math_homework,
output_info=result.final_output.reasoning
)
aplicativo avançado
Os desenvolvedores podem combinar vários recursos do Guardrails para implementar: análise de conformidade, qualificação de domínio de especialização, filtragem de informações confidenciais e outras políticas de segurança complexas. O sistema encerrará automaticamente o processo ou retornará uma mensagem de aviso predefinida no caso de uma falha de autenticação.
Essa resposta foi extraída do artigoOpenAI Agents SDK: uma estrutura Python para criar fluxos de trabalho colaborativos de inteligência múltiplaO
































