Voltar para biblioteca
🦙
ai

Ollama

LLMs locais

Sobre e História

Ferramenta que tornou incrivelmente fácil rodar Llama 2, Mistral e outros LLMs localmente.

Principais Casos de Uso

Inferência de IA local e privada.
Testes de LLMs sem custo de API.
Assistentes offline.
Detalhes Técnicos
ID do Sistemaollama
Campos Configuráveis1 campos

Pronto para começar?

Gere o arquivo docker-compose.yaml otimizado para Ollama agora mesmo.