🌐 Começando com servidores compatíveis com o OpenAi
Visão geral
Nullcore não é apenas para openi/ollama/llama.cpp - você pode se conectarQualquer servidor que implemente a API compatível com o OpenAi, executando localmente ou remotamente. Isso é perfeito se você deseja executar modelos de idiomas diferentes ou se você já possui um back -end ou ecossistema favorito. Este guia mostrará como:
- Configure um servidor compatível com o OpenAI (com algumas opções populares)
- Conecte -o para abrir webui
- Comece a conversar imediatamente
Etapa 1: Escolha um servidor compatível com o OpenAI
Existem muitos servidores e ferramentas que expõem uma API compatível com o OpenAI. Aqui estão alguns dos mais populares:
- Llama.cpp: Extremamente eficiente, é executado na CPU e GPU
- Ollama: Super amigável e plataforma cruzada
- LM Studio: App de desktop Rich para Windows/Mac/Linux
- Limonada: Back-end rápido baseado em ONNX com aceleração NPU/IGPU
Escolha o que for adequado ao seu fluxo de trabalho!
🍋 Comece com limonada
A Lemonade é um servidor OpenAI com base no ONNX plug-and-play. Veja como experimentá -lo no Windows:
-
Correr
Lemonade_Server_Installer.exe
-
Instale e faça o download de um modelo usando o instalador da Lemonade
-
Uma vez em execução, seu endpoint da API será:
http: // localhost: 8000/api/v0
Verseus documentosPara detalhes.
Etapa 2: Conecte seu servidor para abrir o Webui
-
Abra o Nullcore no seu navegador.
-
Vá para ⚙️Configurações do administradorConexõesConexões OpenAI
-
Clique em ➕Adicione a conexão
- Url: Use o ponto final da API do seu servidor (por exemplo,
http://localhost:11434/v1
Para Ollama, ou seu próprio endereço do servidor llama.cpp). - Chave da API: Deixe em branco, a menos que seja necessário.
- Url: Use o ponto final da API do seu servidor (por exemplo,
-
Clique em Salvar.
Dica: se executando o Nullcore no Docker e seu servidor modelo em sua máquina host, usehttp://host.docker.internal:<your-port>/v1
Para limonada:Ao adicionar limonada, usehttp://localhost:8000/api/v0
como o URL.
Etapa 3: comece a conversar!
Selecione o modelo do seu servidor conectado no menu de bate -papo e comece!
É isso! Se você escolhe llama.cpp, ollama, LM Studio ou Lemonade, você pode experimentar e gerenciar facilmente vários servidores de modelos - tudo em webui aberto.
🚀 Goste de construir sua configuração local perfeita de IA!