Soluções de ponta a ponta, da experimentação à produção
A função de implantação em um clique da plataforma encapsula todo o processo de MLOps: depois que a validação do modelo é aprovada, o sistema gera automaticamente uma API de previsão em contêiner do Docker e a hospeda no cluster de computação elástica do AWS. Os usuários podem obter um ponto de extremidade HTTPS exclusivo que oferece suporte à resposta de solicitação em tempo real no formato JSON. Em comparação com o ciclo de engenharia de 2 a 3 semanas necessário para que as empresas criem seus próprios serviços de modelo, a DataFawn reduz o processo para 5 minutos com monitoramento de tráfego integrado e mecanismos de dimensionamento automático.
Casos reais de implementação mostram que, depois que uma empresa de varejo usou esse recurso para integrar o modelo de previsão de resposta promocional ao sistema de CRM, a latência de resposta da API ficou estável em menos de 200 ms, e o custo de operação e manutenção do processamento de 100.000 solicitações por dia foi de apenas 1/5 da solução tradicional. Mais importante é o gerenciamento iterativo do modelo fornecido pela plataforma, que permite que o sistema mantenha a API antiga on-line ao carregar uma nova versão do conjunto de dados e mude facilmente para uma nova versão depois que o teste A/B confirmar a melhoria do efeito. O sistema manterá a API antiga on-line ao fazer o upload de uma nova versão do conjunto de dados e, em seguida, mudará sem problemas depois que o teste A/B confirmar a melhoria do efeito, o que resolve completamente o risco de atualização do modelo.
Essa resposta foi extraída do artigoDataFawn: uma plataforma de análise de dados para criar modelos de aprendizado de máquina sem escrever códigoO





























