A Presenton usa a tecnologia de conteinerização para implantar modelos de código aberto, como o Ollama, no ambiente local do usuário, garantindo que os dados confidenciais não saiam do dispositivo do usuário durante todo o processo. Quando o parâmetro LLM=ollama é configurado, todo o processamento de texto e a geração de conteúdo são feitos no contêiner Docker local, evitando completamente o risco de privacidade da transmissão na nuvem.
Esse recurso é especialmente adequado para lidar com segredos comerciais e informações confidenciais e permite que os usuários concluam a geração da apresentação sem conexão com a Internet. Juntamente com a configuração de segurança CAN_CHANGE_KEYS=false, ele pode efetivamente evitar o risco de vazamento de chaves de API e criar um mecanismo duplo de proteção de privacidade no nível do sistema.
Essa resposta foi extraída do artigoPresenton: ferramenta de geração automática de apresentações com IA de código abertoO