O Anannas AI é um gateway de API unificado. Ele oferece aos usuários acesso a mais de 500 modelos de linguagem em grande escala por meio de uma única API. Esses modelos vêm de diferentes provedores, como OpenAI, Anthropic, Mistral, Gemini e DeepSeek. A plataforma oferece recursos de roteamento à prova de falhas. Ela controla os custos e fornece informações instantâneas sobre o uso. Os usuários podem ver os gastos, o uso de tokens e os dados de solicitação de API no painel. A Anannas AI oferece suporte à integração com a Langfuse para observabilidade em duas camadas. Ele rastreia as métricas do gateway, enquanto o Langfuse captura os processos de rastreamento e depuração de aplicativos. A plataforma tem custos indiretos abaixo de milissegundos e é adequada para ambientes de produção. O Anannas AI foi desenvolvido por uma pequena empresa com 2 a 10 funcionários. O foco é o desenvolvimento de software personalizado de TI. Ela ajuda os desenvolvedores a evitar o uso de vários SDKs e APIs. A plataforma foi lançada recentemente e já processou mais de 2 bilhões de tokens. A Anannas AI participa de eventos, como o Nouscon, para apoiar a pesquisa de código aberto.
Lista de funções
- Acesso único à API: conecte-se a mais de 500 modelos LLM por meio de uma única API, incluindo modelos de provedores como OpenAI, Anthropic, Mistral, Gemini, DeepSeek e Nebius.
- Roteamento à prova de falhas: roteia automaticamente as solicitações para o melhor modelo ou provedor, garantindo um serviço ininterrupto.
- Controle de custos: monitore e limite os gastos para ajudar os usuários a gerenciar seus orçamentos e evitar custos inesperados.
- Informações instantâneas sobre o uso: painéis que mostram gastos, uso de tokens, solicitações de API e atividades recentes, com dados por dia e mês.
- Observabilidade em duas camadas: Langfuse integrado, métricas de gateway de rastreamento e rastreamento de aplicativos para fornecer uma visão completa desde a seleção do modelo até a execução da produção.
- Overhead inferior a um milissegundo: o processamento de baixa latência garante uma resposta rápida para aplicativos em tempo real.
- Suporte à integração: integre-se a ferramentas como Pipecat e Langfuse para ampliar a funcionalidade.
- Pronto para o ambiente de produção: projetado para dimensionar e suportar solicitações de alto tráfego, como os 2 bilhões de tokens processados recentemente.
Usando a Ajuda
O Anannas AI não requer um processo de instalação complicado. É uma plataforma baseada em nuvem que os usuários podem se inscrever e usar por meio de uma página da Web. Em primeiro lugar, acesse https://anannas.ai/. Clique no botão "Sign Up" (Registrar-se) e digite seu e-mail e senha para criar uma conta. Depois de verificar o e-mail, faça login no painel. O painel é a interface principal em que seus dados de uso são exibidos.
Para começar a usar o recurso Single API Access, primeiro obtenha uma chave de API. No painel, localize a seção "API Keys" (Chaves de API). Clique em "Generate New Key" (Gerar nova chave) e uma chave será gerada. Copie essa chave e use-a no código do seu aplicativo. O Anannas AI é compatível com o SDK da OpenAI, portanto, você pode chamá-lo como se estivesse usando a API da OpenAI. Mas ele pode rotear para outros modelos.
Por exemplo, instale a biblioteca OpenAI no Python: pip install openai. Em seguida, importe a biblioteca e configure o cliente: from openai import OpenAI. client = OpenAI(api_key="your Anannas API key ", base_url="https://api.anannas.ai/v1″). Agora você pode chamar o modelo. Por exemplo, conclua o bate-papo: response = client.chat.completions.create(model="gpt-4o", messages=[{"role". "user", "content": "Hello"}]). Aqui, o modelo pode ser qualquer modelo compatível, como "claude-3-opus" ou "gemini-pro".
O roteamento à prova de falhas é a função em destaque. Configure as regras de roteamento no painel. Vá para a seção "Routing" (Roteamento) e adicione regras. Por exemplo, selecione o modelo preferido e, se ele não estiver disponível, mude para o modelo alternativo. As regras são baseadas em custo, velocidade ou disponibilidade. Depois de salvas, as regras serão aplicadas automaticamente pela chamada de API. Teste de roteamento: insira um prompt na página de playground, selecione um modelo e visualize a resposta e o caminho de roteamento.
Os recursos de controle de custos são configurados na seção "Billing" (Faturamento). Adicione um limite orçamentário, como um teto mensal. O sistema monitora os gastos e envia um alerta se o limite for atingido. Exibir relatórios detalhados: clique em "Usage Insights" (Informações de uso) para ver gráficos que mostram a entrada/saída de tokens, o número de solicitações e o custo. Os dados são atualizados em tempo real para ajudar a otimizar o uso.
Informações instantâneas sobre o uso na página inicial do painel. "Recent Activity" lista as chamadas de API mais recentes, incluindo hora, modelo e status. Clique em uma entrada para ver os registros detalhados, como prompts de entrada e texto de saída. Isso ajuda na depuração.
Para integrar a Langfuse, primeiro registre uma conta na Langfuse. Obtenha as chaves públicas e privadas da Langfuse. No painel do Anannas, vá para "Integrations" (Integrações) e selecione Langfuse. Insira a chave do Langfuse e ative a integração. Agora, suas chamadas são enviadas para os rastreamentos do Langfuse. O painel do Langfuse exibe rastreamentos de aplicativos, como cadeias de alertas e erros. O Anannas rastreia métricas no nível do gateway, como latência e decisões de roteamento. A visão de duas camadas é visível de ponta a ponta, desde o modelo até o aplicativo.
A sobrecarga abaixo de milissegundos é automática. Não é necessária nenhuma configuração e a plataforma otimiza a infraestrutura. Ideal para cenários de alta carga, como os 2 bilhões de tokens processados recentemente.
Integração com o Pipecat para aplicativos específicos, como processamento de fala. Use o Anannas como o provedor LLM no código do Pipecat. Instale o pacote pipecat-anannas: pip install pipecat-anannas. Em seguida, configure o cliente Anannas no código.
Uso em ambiente de produção: proteção de chaves de API. Use variáveis de ambiente para armazenar chaves. Monitore as cotas e entre em contato com o suporte para obter planos de atualização se o tráfego for alto. O Anannas oferece suporte a avaliações gratuitas com níveis pagos com base no uso.
Se você tiver problemas, acesse a página de documentação. O link da documentação está na parte superior do painel. Há uma referência de API, código de amostra e perguntas frequentes. A equipe de suporte responde por e-mail ou pelo Discord.
Processo geral de operação: registro → gerar chave de API → configurar roteamento e integração → chamar a API no código → monitorar o painel. A plataforma é simples de começar a usar e é adequada para que os desenvolvedores criem aplicativos de IA sem precisar lidar com vários provedores.
(Contagem de palavras aproximadamente 1050)
cenário do aplicativo
- Desenvolvimento de aplicativos de IA
Os desenvolvedores criam chatbots com modelos de comutação Anannas para testar o desempenho sem alterar o código. O roteamento garante que o melhor modelo esteja disponível, mantendo os custos abaixo do orçamento. - Implementação do ambiente de produção
A empresa executa serviços de IA em grande escala e lida com solicitações de alto tráfego com o Anannas. A integração com a Langfuse elimina problemas e os insights ajudam a otimizar os gastos. - experimento de modelagem
O pesquisador testou diferentes LLMs, como a mudança do OpenAI para o Mistral. Os painéis mostram dados comparativos e oferecem suporte à iteração rápida. - Integração de ferramentas de terceiros
A criação do Speech AI em conjunto com o Pipecat.Anannas fornece acesso unificado e simplifica o suporte a vários modelos. - Otimização de custos
As equipes de startups gerenciam as despesas de IA. Manter a qualidade do serviço com alertas de orçamento e roteamento para selecionar modelos baratos.
QA
- O que é a IA do Anannas?
É um gateway de API que oferece aos usuários acesso a mais de 500 modelos de IA por meio de uma única interface. - Como faço para obter uma chave de API?
Faça login no painel, acesse a seção API Keys (Chaves de API) e gere uma nova chave. - Quais são os modelos suportados?
Inclui modelos de provedores como OpenAI, Anthropic, Mistral, Gemini, DeepSeek e outros. - Como faço para configurar o roteamento?
Adicione regras à seção Roteamento para selecionar modelos com base no custo ou na disponibilidade. - Como funciona a integração do Langfuse?
Digite a chave Langfuse em Integrações para ativar o rastreamento automático. - Existe um plano gratuito?
Sim, há uma versão de avaliação, suporte para uso básico, pago com base no tráfego. - Como faço para monitorar o uso?
O painel exibe dados de despesas, tokens e solicitações, atualizados em tempo real. - Para quais usuários?
desenvolvedores, pesquisadores e empresas para integração e otimização de IA.






























