Introdução geral de Ollama
O ollama é uma estrutura leve para a execução de modelos de idiomas nativos, permitindo que os usuários criem e executem facilmente modelos de idiomas grandes. Ele oferece várias opções de início rápido e instalação, é compatível com o Docker e inclui um rico conjunto de bibliotecas para os usuários escolherem. É fácil de usar, fornece uma API REST e tem uma variedade de plug-ins e extensões que se integram à comunidade.
O ollama é uma ferramenta de linha de comando pura para computadores pessoais, recomendada para a implantação de interfaces de bate-papo locais, como: Open WebUI, Lobe Chat, NextChat.

Modifique o diretório de instalação padrão: https://github.com/ollama/ollama/issues/2859

Lista de recursos do Ollama
Como colocar modelos de idiomas grandes em funcionamento rapidamente
Suporte a sistemas macOS, Windows e Linux
Fornece bibliotecas como ollama-python, ollama-js, etc.
Incluindo o Llama 2. MistralModelo pré-construído de Gemma et al.
Oferece suporte a instalações locais e do Docker
Fornecer funcionalidade de modelo personalizado
Suporte para conversão de modelos do GGUF e do PyTorch
Fornecer um guia de operação da CLI
Fornecer suporte à API REST
Comandos de ollama comumente usados
Modelo pull: ollama pull llama3.1
Modelo em execução: llama run llama3.1
Excluir modelo: llama rm llama3.1
Lista de todos os modelos disponíveis: lista de ollama
Consultar o endereço do serviço da API: ollama serve (padrão: http://localhost:11434/)
Ajuda da Ollama
Scripts e guias de instalação disponíveis no site da ollama e na página do GitHub
Instalação usando a imagem do Docker fornecida
Criação, extração, remoção e cópia de modelos por meio de operações de CLI
Inicialização e execução de uma compilação local
Executar o modelo e interagir com ele
Alguns dos modelos suportados pela Ollama
| Model | Parameters | Size | Download |
|---|---|---|---|
| Llama 2 | 7B | 3.8GB | ollama run llama2 |
| Mistral | 7B | 4.1GB | ollama run mistral |
| Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
| Phi-2 | 2.7B | 1.7GB | ollama run phi |
| Neural Chat | 7B | 4.1GB | ollama run neural-chat |
| Starling | 7B | 4.1GB | ollama run starling-lm |
| Code Llama | 7B | 3.8GB | ollama run codellama |
| Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
| Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
| Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
| Orca Mini | 3B | 1.9GB | ollama run orca-mini |
| Vicuna | 7B | 3.8GB | ollama run vicuna |
| LLaVA | 7B | 4.5GB | ollama run llava |
| Gemma | 2B | 1.4GB | ollama run gemma:2b |
| Gemma | 7B | 4.8GB | ollama run gemma:7b |




































