⭐ Recursos
Principais recursos do webui aberto ⭐
-
Configuração sem esforço: Instale perfeitamente usando o Docker, Kubernetes, Podman, gráficos de comando (
kubectl
, Assim,kustomize
, Assim,podman
, ouhelm
) para uma experiência sem complicações com suporte para ambos:ollama
imagem com ollama agrupado e:cuda
com suporte CUDA. -
Configuração inicial guiada: Preencha o processo de configuração com clareza, incluindo uma indicação explícita de criar uma conta de administrador durante a configuração pela primeira vez.
-
Integração da API OpenAI: Integrar sem esforço as APIs compatíveis com o OpenAI para conversas versáteis ao lado dos modelos Ollama. O URL da API do OpenAI pode ser personalizado para integrar perfeitamente o Webui aberto a vários aplicativos de terceiros.
-
Permissões granulares e grupos de usuários: Ao permitir que os administradores criem funções detalhadas do usuário, grupos de usuários e permissões no espaço de trabalho, garantimos um ambiente seguro para todos os usuários envolvidos. Essa granularidade não apenas aprimora a segurança, mas também permite experiências personalizadas do usuário, promovendo um senso de propriedade e responsabilidade entre os usuários.
-
Design responsivo: Desfrute de uma experiência perfeita em PCs, laptops e dispositivos móveis.
-
Aplicativo da Web progressiva para celular: Desfrute de uma experiência nativa de aplicativos da Web progressiva em seu dispositivo móvel com acesso offline em
localhost
ou um domínio pessoal e uma interface de usuário suave. Para que nosso PWA seja instalável no seu dispositivo, ele deve ser entregue em um contexto seguro. Isso geralmente significa que ele deve ser servido sobre o HTTPS.informações- Para configurar um PWA, você precisará de algum entendimento de tecnologias como Linux, Docker e proxies reversos, como
Nginx
, Assim,Caddy
, ouTraefik
. O uso dessas ferramentas pode ajudar a simplificar o processo de construção e implantação de um PWA adaptado às suas necessidades. Embora não exista a opção "instalação com um clique" disponível e sua opção disponível para implantar com segurança sua instância aberta do WebUI sobre o HTTPS requer experiência do usuário, o uso desses recursos pode facilitar a criação e implantação de um PWA adaptado às suas necessidades.
- Para configurar um PWA, você precisará de algum entendimento de tecnologias como Linux, Docker e proxies reversos, como
-
Apoio total e suporte de látex: Eleve sua experiência LLM com recursos abrangentes de remarca, látex e ricos em texto para interação enriquecida.
-
Construtor de modelos: Crie facilmente modelos personalizados a partir dos modelos básicos de Ollama diretamente a partir do Nullcore. Crie e adicione caracteres e agentes personalizados, personalize elementos do modelo e importe modelos sem esforço por meio deComunidade Webui abertaintegração.
-
Integração local e remota de trapos: Mergulhe no futuro das interações de bate-papo e explore seus documentos com nossa tecnologia de geração aumentada de recuperação de ponta (RAG) em seus bate-papos. Documentos podem ser carregados no
Documents
guia do espaço de trabalho, após o que eles podem ser acessados usando a chave de libra [#
] antes de uma consulta, ou iniciando o prompt com a chave da libra [#
], seguido por um URL para integração de conteúdo da página da web. -
Extração de documentos: Extraia o texto e os dados de vários formatos de documentos, incluindo PDFs, documentos do Word, planilhas do Excel, apresentações do PowerPoint e muito mais. Nossos recursos avançados de processamento de documentos permitem integração perfeita com sua base de conhecimento, permitindo recuperação precisa e geração de informações de documentos complexos, preservando sua estrutura e formatação.
-
Pesquisa na web por trapo: Você pode executar pesquisas na Web usando uma seleção de vários provedores de pesquisa e injetar os resultados diretamente na sua experiência de geração aumentada de recuperação local (RAG).
-
Recursos de navegação na Web: Integrar sites sem problemas à sua experiência de bate -papo usando o
#
comando seguido por um URL. Esse recurso permite a incorporação do conteúdo da Web diretamente em suas conversas, aumentando assim a riqueza e a profundidade de suas interações. -
Integração de geração de imagens: Incorpore perfeitamente recursos de geração de imagens para enriquecer sua experiência de bate -papo com conteúdo visual dinâmico.
-
Utilização do modelo simultâneo: Envolva -se sem esforço com vários modelos simultaneamente, aproveitando seus pontos fortes únicos para respostas ideais. Aproveite um conjunto diversificado de modalidades de modelo em paralelo para aprimorar sua experiência.
-
Controle de acesso baseado em função (RBAC): Garanta acesso seguro com permissões restritas. Somente indivíduos autorizados podem acessar seu ollama, enquanto a criação e os direitos de extração de modelos são reservados exclusivamente para os administradores.
-
Suporte multilíngue: Experimente webui aberto em seu idioma preferido com nossa internacionalização (
i18n
) apoiar. Convidamos você a se juntar a nós para expandir nossos idiomas suportados! Estamos buscando ativamente colaboradores! -
Atualizações contínuas: Estamos comprometidos em melhorar o Webui aberto com atualizações, correções e novos recursos regulares.
E muitos recursos mais notáveis, incluindo ... ⚡️
🔧 Suporte de pipelines
-
Estrutura de pipelines: Integrar e personalizar perfeitamente sua experiência aberta com a nossa estrutura modular de plug -in para personalização e funcionalidade aprimoradas (https://github.com/open-webui/pipelines). Nossa estrutura permite a fácil adição de lógica e integração personalizadas das bibliotecas Python, dos agentes da IA às APIs de automação residencial.
-
Upload de pipeline: Os oleodutos podem ser carregados diretamente do
Admin Panel
Settings
Pipelines
Menu, simplificando o processo de gerenciamento de pipeline.
As possibilidades com nossa estrutura de pipelines não têm limites e são praticamente ilimitadas. Comece com alguns oleodutos pré-criados para ajudá-lo a começar!
-
Chamada de função: IntegrarChamada de funçãoSenessamente através de pipelines para aprimorar suas interações LLM com recursos de chamada de função avançada.
-
Pano personalizado: Integrar aGeração Aumentada de Recuperação Custom (RAG)oleoduto perfeitamente para aprimorar suas interações LLM com a lógica personalizada do RAG.
-
Monitoramento de mensagens com Langfuse: Monitorar e analisar interações de mensagens em estatísticas de uso em tempo real viaLangfuseoleoduto.
-
Limitação da taxa de usuário: Gerencie o uso da API com eficiência, controlando o fluxo de solicitações enviadas ao LLMS para impedir o excesso de limites de taxa comLimite de taxaoleoduto.
-
Tradução em tempo real da libretranslate: Integrar traduções em tempo real em suas interações LLM usandoLibretranslateoleoduto, permitindo a comunicação cruzada.
- Observe que este pipeline requer uma configuração adicional com o LibreTranslate em um contêiner do Docker para funcionar.
-
Filtragem de mensagens tóxicas: NossoDesintoxicarO Pipeline filtra automaticamente mensagens tóxicas para manter um ambiente de bate -papo limpo e seguro.
-
Llm-guard: Garanta interações seguras de LLM comLlm-guardO pipeline, apresentando um scanner de injeção imediata que detecta e mitiga manipulações de entrada astutas direcionadas a grandes modelos de linguagem. Isso protege seu LLMS do vazamento de dados e adiciona uma camada de resistência aos ataques rápidos de injeção.
-
Conversa Turn Limits: Melhorar o gerenciamento de interação, definindo limites de conversaçãoLimite de giro de conversaoleoduto.
-
Estatísticas de geração Openai: NossoOpenaiO pipeline fornece estatísticas detalhadas de geração para modelos OpenAI.
-
🚀 Suporte de vários modelos: Nossa integração perfeita com vários modelos de IA devários fornecedoresExpande suas possibilidades com uma ampla gama de modelos de idiomas para selecionar e interagir.
Além das extensas recursos e opções de personalização, também fornecemosuma biblioteca de exemplo de pipelines prontos para usarjuntamente comUm exemplo de andaimes de andaimes práticospara ajudá -lo a começar. Esses recursos otimizarão seu processo de desenvolvimento e permitirão criar rapidamente interações LLM poderosas usando pipelines e python. Codificação feliz! 💡
🖥️ Experiência do usuário
-
Interface intuitiva: A interface de bate -papo foi projetada com o usuário em mente, inspirando -se na interface do usuário do ChatGPT.
-
Responsividade rápida: Desfrute de desempenho confiável e responsivo.
-
Tela de respingos: Uma tela de respingo de carregamento simples para uma experiência mais suave do usuário.
-
Interface personalizada: Escolha entre uma página de destino de pesquisa recém -projetada e a interface clássica de interface de interface>, permitindo uma experiência personalizada.
-
Método de instalação pip: A instalação do webui aberto pode ser realizado através do comando
pip install open-webui
, que simplifica o processo e o torna mais acessível a novos usuários. Para mais informações, visite:https://pypi.org/project/open-webui/ -
Personalização temática: Personalize sua experiência aberta com uma variedade de opções, incluindo uma variedade de temas sólidos, mas elegantes, imagens de fundo de bate -papo personalizáveis e opções de três modos: modo claro, escuro ou OLED - ou deixeDelaEscolha para você! ;)
-
Suporte de fundo personalizado: Defina um plano de fundo personalizado das configurações> Interface para personalizar sua experiência.
-
Banners ricos com Markdown: Crie anúncios visualmente envolventes com o suporte de remarca em banners, permitindo conteúdo mais rico e dinâmico.
-
Sintaxe de código Destaques: Nosso recurso de destaque da sintaxe aprimora a legibilidade do código, fornecendo uma visão clara e concisa do seu código.
-
Renderização de marcação em mensagens do usuário: As mensagens do usuário agora são renderizadas no Markdown, aumentando a legibilidade e a interação.
-
Opções de entrada de texto flexíveis: Alterne entre a entrada de texto rica e a entrada de área de texto herdada para bate -papo, atendendo às preferências do usuário e fornecendo uma escolha entre formatação avançada e entrada de texto mais simples.
-
Compartilhamento de código sem esforço: Simplifique o processo de compartilhamento e colaboração com opções convenientes de cópia de código, incluindo um botão de cópia flutuante em blocos de código e funcionalidade de clique para copy nos vãos de código, economizando tempo e reduzindo a frustração.
-
Artefatos interativos: Renderizar conteúdo da Web e SVGs diretamente na interface, suportando iterações rápidas e alterações ao vivo para maior criatividade e produtividade.
-
Edição de código ao vivo: Os blocos de código superalimentados permitem a edição ao vivo diretamente na resposta LLM, com recargas ao vivo suportadas por artefatos, simplificando codificação e teste.
-
Interação SVG aprimorada: Capacidades de pan e zoom para imagens SVG, incluindo diagramas de sereia, permitem exploração e compreensão mais profundas de conceitos complexos.
-
Texto Selecione ações rápidas: Os botões flutuantes aparecem quando o texto é destacado nas respostas do LLM, oferecendo interações mais profundas como "Faça uma pergunta" ou "Explique" e aprimorando a experiência geral do usuário.
-
Suporte bate-papo bidirecional: Você pode alternar facilmente entre as instruções de bate-papo da esquerda e da direita para a esquerda para acomodar várias preferências de idiomas.
-
Acessibilidade móvel: A barra lateral pode ser aberta e fechada em dispositivos móveis com um simples gesto de deslizamento.
-
Feedback háptico sobre dispositivos suportados: Os dispositivos Android suportam feedback háptico para uma experiência tátil imersiva durante certas interações.
-
Pesquisa de configurações do usuário: Procure rapidamente os campos de configurações, melhorando a facilidade de uso e a navegação.
-
Documentação offline swagger: Acesse a Documentação da API de Swagger, favorável ao desenvolvedor, garantindo acessibilidade total onde quer que esteja.
-
Otimizações de desempenho: O carregamento preguiçoso de grandes dependências minimiza o uso inicial da memória, aumentando o desempenho e reduzindo os tempos de carregamento.
-
Configuração persistente e escalável: As configurações abertas da Webui são armazenadas em um banco de dados (webui.db), permitindo o balanceamento de carga contínuo, configurações de alta disponibilidade e configurações persistentes em várias instâncias, facilitando o acesso e a reutilização de suas configurações.
-
Importação/exportação portátil: Importar e exportar facilmente configurações abertas do WebUI, simplificando o processo de replicação de configurações em vários sistemas.
-
Acesso rápido a documentação e atalhos: O botão do ponto de interrogação localizado no canto inferior direito da tela principal da interface do usuário (disponível em telas maiores, como PCs e laptops para desktop), fornece aos usuários um fácil acesso à página de documentação do WebUI aberta e atalhos de teclado disponíveis.
-
Changelog e verifique se há atualizações: Os usuários podem acessar um Changelog abrangente e verificar se há atualizações no
Settings
About
See What's New
Menu, que fornece uma visão geral rápida dos recursos mais recentes, melhorias e correções de bugs, bem como a capacidade de verificar se há atualizações.
💬 Conversas
-
Verdadeiro bate -papo assíncrono: Desfrute de multitarefa ininterrupta com o verdadeiro suporte de bate -papo assíncrono, permitindo criar bate -papos, navegar e retornar a qualquer momento com as respostas prontas.
-
Notificações de conclusão do bate -papo: Mantenha-se atualizado com as notificações instantâneas no UI quando um bate-papo terminar em uma guia não ativa, garantindo que você nunca perca uma resposta completa.
-
Notificação WebHook Integração: Receba atualizações oportunas para bate-papos de longa duração ou necessidades de integração externa com notificações de webhook configuráveis, mesmo quando sua guia estiver fechada.
-
Canais (beta): Explore a colaboração em tempo real entre usuários e AIs com salas de bate-papo em estilo Discord/Slack, construa bots para canais e desbloqueie comunicação assíncrona para fluxos de trabalho proativos de vários agentes.
-
Indicadores de digitação em canais: Aumente a colaboração com os indicadores de digitação em tempo real nos canais, mantendo todos envolvidos e informados.
-
Indicadores de status do usuário: Veja rapidamente o status de um usuário clicando em sua imagem de perfil nos canais, fornecendo melhores informações de coordenação e disponibilidade.
-
Controles de bate -papo: Ajuste facilmente os parâmetros para cada sessão de bate -papo, oferecendo controle mais preciso sobre suas interações.
-
Gerenciamento de resposta favorito: Marque e organize facilmente as respostas favoritas diretamente da visão geral do bate -papo, aumentando a facilidade de recuperação e o acesso a respostas preferidas.
-
Bate -papos fixados: Suporte para bate -papos fixados, permitindo que você mantenha conversas importantes facilmente acessíveis.
-
Suporte de incorporação de pano: Alterar a geração aumentada de recuperação (RAG) Modelo de incorporação diretamente no
Admin Panel
Settings
Documents
menu, aprimorando o processamento de documentos. Esse recurso suporta modelos Ollama e Openai. -
Citações no recurso RAG: O recurso de geração aumentada de recuperação (RAG) permite que os usuários rastreem facilmente o contexto de documentos alimentados ao LLMS com citações adicionais para pontos de referência.
-
Oleoduto RAG aprimorado: Uma sub-traços de pesquisa híbrida alternável para o recurso de incorporação de pano que aprimora a funcionalidade do RAG via
BM25
, com renomeamento movido porCrossEncoder
e limiares de pontuação de relevância configuráveis. -
Pipeline do YouTube Rag: O pipeline de geração aumentada de recuperação dedicada (RAG) para resumir vídeos do YouTube por URLs de vídeo permite uma interação suave com transcrições de vídeo diretamente.
-
Recuperação abrangente de documentos: Alternar entre a recuperação completa do documento e os trechos tradicionais, permitindo tarefas abrangentes como resumo e apoiar recursos aprimorados de documentos.
-
Relevância da citação de pano: Avalie facilmente a precisão da citação com a adição de porcentagens de relevância nos resultados dos trapos.
-
Pano avançado: Melhore a precisão do trapo com o pré-processamento inteligente do histórico de bate-papo para determinar as melhores consultas antes da recuperação.
-
Citações embutidas para trava: Beneficie-se de citações contínuas para as respostas de geração de recuperação upmentada (RAG), melhorando a rastreabilidade e fornecendo clareza de origem para arquivos recém-enviados.
-
Grande manuseio de texto: Opcionalmente, converta um grande texto colado em um upload de arquivo para ser usado diretamente com o RAG, mantendo o limpador de interface de bate -papo.
-
Suporte multimodal: Se envolver sem esforço com modelos que suportam interações multimodais, incluindo imagens (
e.g., LLaVA
-
Suporte de modelo múltiplo: Alterne rapidamente entre diferentes modelos para diversas interações de bate -papo.
-
Mesclar respostas em muitos modelos de bate -papo: Aprimora o diálogo, mesclando respostas de vários modelos em uma resposta única e coerente.
-
Várias instâncias do mesmo modelo em bate -papos: Aprimorou muitos modelos de bate -papo para suportar a adição de várias instâncias do mesmo modelo.
-
Recurso de bate -papo temporário: Introduziu um recurso de bate -papo temporário, depreciando a configuração do histórico de bate -papo antigo para aprimorar a flexibilidade da interação do usuário.
-
Edição de mensagens do usuário: Aprimorou o recurso de edição de bate -papo do usuário para permitir a economia de alterações sem enviar.
-
Edição de conversas eficientes: Crie novos pares de mensagens de maneira rápida e intuitivamente usando os CMD/Ctrl+Shift+Entre atalhos, simplificando os testes de comprimento da conversa.
-
Compressão da imagem do lado do cliente: Salve a largura de banda e melhore o desempenho com a compactação de imagem do lado do cliente, permitindo que você compacte as imagens antes do upload das configurações> interface.
-
'@' Integração do modelo: Ao alternar perfeitamente para qualquer modelo local ou externo acessível durante as conversas, os usuários podem aproveitar a inteligência coletiva de vários modelos em um único bate -papo. Isso pode ser feito usando o
@
comando para especificar o modelo pelo nome em um bate -papo. -
Marcação de conversas: Categorize e localize bate -papos marcados sem esforço para referência rápida e coleta de dados simplificada usando nosso sistema eficiente de consulta 'Tag:', permitindo gerenciar, pesquisar e organizar suas conversas sem atrapalhar a interface.
-
Margem automática: As conversas podem opcionalmente ser marcadas automaticamente para uma organização aprimorada, espelhando a eficiência dos títulos gerados automaticamente.
-
Clonagem de bate -papo: Clonar facilmente e salve um instantâneo de qualquer bate -papo para referência ou continuação futura. Esse recurso facilita a retirada de onde você parou ou compartilhe sua sessão com outras pessoas. Para criar uma cópia do seu bate -papo, basta clicar no
Clone
Botão nas opções suspensas do bate -papo. Você pode acompanhar seus clones? -
Fluxos de conversação visualizados: Mensagens interativas Diagrama para obter uma melhor visualização dos fluxos de conversação, aprimorando a compreensão e a navegação de discussões complexas.
-
Pastas de bate -papo: Organize seus bate -papos em pastas, arraste e solte -as para facilitar o gerenciamento e exportá -las perfeitamente para compartilhar ou análises.
-
Importação fácil de bate -papo: Importar bate -papos no seu espaço de trabalho simplesmente arrastando e soltando exportações de bate -papo (JSON) para a barra lateral.
-
Suporte predefinido imediato: Acesse instantaneamente avisos predefinidos personalizados usando o
/
comando na entrada de bate -papo. Carregue a conversa predefinida para iniciantes sem esforço e acelere suas interações. Importações de importação com facilidade atravésComunidade Webui abertaintegração ou crie o seu! -
Suporte de variáveis imediatas: Variáveis imediatas, como
{{CLIPBOARD}}
, Assim,{{CURRENT_DATE}}
, Assim,{{CURRENT_DATETIME}}
, Assim,{{CURRENT_TIME}}
, Assim,{{CURRENT_TIMEZONE}}
, Assim,{{CURRENT_WEEKDAY}}
, Assim,{{USER_NAME}}
, Assim,{{USER_LANGUAGE}}
, e{{USER_LOCATION}}
pode ser utilizado no prompt do sistema ou usando um comando slash para selecionar um prompt diretamente dentro de um bate -papo.- Por favor, observe que o
{{USER_LOCATION}}
A variável prompt requer uma conexão segura sobre HTTPS. Para utilizar essa variável de prompt específica, verifique se{{USER_LOCATION}}
está ligado a partir doSettings
Interface
menu. - Por favor, observe que o
{{CLIPBOARD}}
Variáveis rápidas requer acesso à área de transferência do seu dispositivo.
- Por favor, observe que o
-
Recurso de memória: Adicione manualmente as informações que você deseja que seus LLMs lembrem através do
Settings
Personalization
Memory
menu. Memórias podem ser adicionadas, editadas e excluídas.
💻 Gerenciamento de modelos
-
Construtor de modelos: Todos os modelos podem ser construídos e editados com um modo persistente de construtor de modelos na página de edição de modelos.
-
Suporte ao conhecimento para modelos: A capacidade de anexar ferramentas, funções e coleções de conhecimento diretamente aos modelos da página de edição de um modelo, aprimorando as informações disponíveis para cada modelo.
-
Predefinições de modelo: Crie e gerencie predefinições de modelos para a API Ollama e Openai.
-
Marcação de modelo: O espaço de trabalho dos modelos permite que os usuários organizem seus modelos usando a etiqueta.
-
Pedidos suspensos de seletor de modelo: Os modelos podem ser organizados sem esforço, arrastando -os e lançando -os para as posições desejadas na área de trabalho do modelo, que refletirá as alterações no menu suspenso do modelo.
-
Modelo Diretado de seletor: Encontre e selecione seus modelos facilmente com pesquisa difusa e informações detalhadas do modelo com tags de modelo e descrições de modelos.
-
Seleção de modelos de teclas de seta: Use teclas de seta para seleção de modelo mais rápida, aprimorando a acessibilidade.
-
Ações rápidas no espaço de trabalho do modelo: Ações rápidas da chave de mudança aprimoradas para ocultar/exibir e excluir modelos na área de trabalho do modelo.
-
Uso do modelo transparente: Mantenha-se informado sobre o estado do sistema durante as consultas com modelos agradados pelo conhecimento, graças aos displays de status visível.
-
Controle de ajuste fino com parâmetros avançados: Ganhe um nível mais profundo de controle, ajustando os parâmetros do modelo, como
seed
, Assim,temperature
, Assim,frequency penalty
, Assim,context length
, Assim,seed
, e mais. -
Integração perfeita: Copie qualquer
ollama run {model:tag}
Comando da CLI diretamente da página de um modelo emBiblioteca Ollamae cole -o no suspensão do modelo para selecionar e puxar facilmente os modelos. -
Crie Ollama Modelfile: Para criar um arquivo de modelo para Ollama, navegue para o
Admin Panel
Settings
Models
Create a model
menu. -
Criação do modelo de arquivo GGUF: Crie modelos de Ollama sem esforço, enviando arquivos GGUF diretamente a partir de webui aberto do
Admin Settings
Settings
Model
Experimental
menu. O processo foi simplificado com a opção de fazer upload da sua máquina ou baixar arquivos GGUF de Hugging Face. -
Configuração padrão do modelo: A preferência padrão do modelo para novos bate -papos pode ser definida no
Settings
Interface
Menu em dispositivos móveis, ou pode ser mais facilmente definido em um novo bate -papo sob o suspensão do seletor de modelos nos PCs e laptops para desktop. -
Insights de resposta LLM: Detalhes de cada resposta gerada podem ser visualizados, incluindo insights externos da API do modelo e informações abrangentes do modelo local.
-
Detalhes do modelo em um olhar: Veja detalhes críticos do modelo, incluindo hash de modelo e último registro de data e hora modificados, diretamente no espaço de trabalho dos modelos para rastreamento e gerenciamento aprimorados.
-
Download/Excluir modelos: Os modelos podem ser baixados ou excluídos diretamente do Nullcore com facilidade.
-
Atualize todos os modelos Ollama: Um botão conveniente permite que os usuários atualizem todos os seus modelos instalados localmente em uma operação, simplificando o gerenciamento do modelo.
-
Integração de cartões de personagem Tavernai: Experimente a narrativa visual aprimorada com a integração do cartão Tavernai em nosso construtor de modelos. Os usuários podem incorporar perfeitamente os PNGs do TavernAi CARACTER PNGS diretamente em seus arquivos de modelo, criando uma experiência mais imersiva e envolvente do usuário.
-
Modelo Playground (Beta): Experimente modelos com a área de playground modelo (
beta
), que permite que os usuários testem e explorem recursos e parâmetros de modelo com facilidade em um ambiente de sandbox antes da implantação em um ambiente de bate -papo ao vivo.
👥 Colaboração
-
Compartilhamento de bate -papo local: Gere e compartilhe links de bate -papo entre os usuários de maneira eficiente e perfeita, aprimorando assim a colaboração e a comunicação.
-
Anotação RLHF: Aumente o impacto de suas mensagens, classificando-as com um polegar para cima ou polegares para baixo da AMD, fornece uma classificação para a resposta em uma escala de 1 a 10, seguida pela opção de fornecer feedback textual, facilitando a criação de conjuntos de dados para o aprendizado de reforço com o feedback humano (
RLHF
). Utilize suas mensagens para treinar ou ajustar modelos, garantindo a confidencialidade dos dados salvos localmente. -
Exportação de feedback abrangente: Exportar dados do histórico de feedback ao JSON para integração perfeita com o processamento do RLHF e análises adicionais, fornecendo informações valiosas para melhorias.
-
Compartilhamento da comunidade: Compartilhe suas sessões de bate -papo com oComunidade Webui abertaclicando no
Share to Nullcore Community
botão. Esse recurso permite que você se envolva com outros usuários e colabore na plataforma.- Para utilizar esse recurso, faça login na sua conta da Comunidade Nullcore. Compartilhar seus bate-papos promove uma comunidade vibrante, incentiva o compartilhamento de conhecimento e facilita a solução de problemas conjuntos. Observe que o compartilhamento da comunidade de sessões de bate -papo é um recurso opcional. Somente os administradores podem ativar esse recurso ou desativar no
Admin Settings
Settings
General
menu.
- Para utilizar esse recurso, faça login na sua conta da Comunidade Nullcore. Compartilhar seus bate-papos promove uma comunidade vibrante, incentiva o compartilhamento de conhecimento e facilita a solução de problemas conjuntos. Observe que o compartilhamento da comunidade de sessões de bate -papo é um recurso opcional. Somente os administradores podem ativar esse recurso ou desativar no
-
Tabela de classificação comunitária: Competir e acompanhar seu desempenho em tempo real com nosso sistema de tabela de classificação, que utiliza o sistema de classificação ELO e permite o compartilhamento opcional do histórico de feedback.
-
Arena de avaliação de modelos: Realize o teste cego A/B de modelos diretamente das configurações do administrador para uma comparação lado a lado, facilitando o encontro do melhor modelo para suas necessidades.
-
Classificação baseada em tópicos: Descubra classificações mais precisas com nosso sistema experimental de re-classificação baseado em tópicos, que ajusta as classificações da tabela de classificação com base na similaridade de tags no feedback.
-
Espaço de trabalho unificado e colaborativo: Acesse e gerencie todos os seus arquivos de modelo, solicitações, documentos, ferramentas e funções em um local conveniente, além de permitir que vários usuários colaborem e contribuam para modelos, conhecimento, avisos ou ferramentas, simplificando seu fluxo de trabalho e aprimorando o trabalho em equipe.
📚 História e arquivo
-
História do bate -papo: Acesse e gerencie seu histórico de conversas com facilidade através da barra lateral de navegação por bate -papo. Desligar o histórico de bate -papo no
Settings
Chats
Menu para impedir que o histórico de bate -papo seja criado com novas interações. -
Acesso à história da regeneração: Revisitar e explorar facilmente todo o seu histórico de regeneração de resposta do LLM.
-
Bate -papos de arquivo: Armazene as conversas concluídas sem esforço que você teve com modelos para referência ou interação futura, mantendo uma interface de bate-papo arrumada e sem desordem.
-
Arquive todos os bate -papos: Esse recurso permite arquivar rapidamente todos os seus bate -papos de uma só vez.
-
Exportar todos os bate -papos arquivados como json: Esse recurso permite que os usuários exportem facilmente todos os seus bate -papos arquivados em um único arquivo JSON, que pode ser usado para fins de backup ou transferência.
-
Baixar bate -papos como json/pdf/txt: Faça o download facilmente de seus bate -papos individualmente em seu formato preferido de
.json
, Assim,.pdf
, ou.txt
formatar. -
Importar/exportar histórico de bate -papo: Mova perfeitamente seus dados de bate -papo dentro e fora da plataforma via
Import Chats
eExport Chats
opções. -
Exclua todos os bate -papos: Esta opção permite excluir permanentemente todos os seus bate -papos, garantindo um novo começo.
🎙️ Áudio, voz e acessibilidade
-
Suporte de entrada de voz: Envolva -se com seu modelo através de interações de voz; Aproveite a conveniência de conversar diretamente com seu modelo. Além disso, explore a opção para enviar a entrada de voz automaticamente após 3 segundos de silêncio para uma experiência simplificada.
- O acesso ao microfone requer a configuração manual de uma conexão segura sobre os HTTPs para funcionar, ouLista de permissões manualmente manualmente por sua conta e risco
-
CHAMADA EMOJI: Ative esse recurso do
Settings
Interface
Menu, permitindo que o LLMS expressasse emoções usando emojis durante a voz exige uma interação mais dinâmica.- O acesso ao microfone requer uma conexão segura sobre o HTTPS para que esse recurso funcione.
-
Recurso de chamada de voz de mãos livres: Inicie as chamadas de voz sem precisar usar as mãos, tornando as interações mais perfeitas.
- O acesso ao microfone é necessário usando uma conexão segura sobre o HTTPS para que esse recurso funcione.
-
Recurso da chamada de vídeo: Ativar chamadas de vídeo com modelos de visão suportados como LLAVA e GPT-4O, adicionando uma dimensão visual às suas comunicações.
- O acesso à câmera e microfone é necessário usando uma conexão segura sobre o HTTPS para que esse recurso funcione.
-
Toque para interromper: Pare o discurso da IA durante as conversas de voz com um toque simples em dispositivos móveis, garantindo controle contínuo sobre a interação.
-
Interrupção de voz: Pare o discurso da IA durante as conversas por voz com sua voz em dispositivos móveis, garantindo controle contínuo sobre a interação.
-
Terminal de texto para fala configurável: Personalize sua experiência de texto em fala com pontos de extremidade compatíveis com o OpenAI configurável para ler as respostas Aloud LLM.
-
Acesso ao modo de chamada direta: Ative o modo de chamada diretamente de um URL, fornecendo um atalho conveniente para usuários de dispositivos móveis.
-
Text-to-fala personalizável: Controle como o conteúdo da mensagem é segmentado para solicitações de geração de texto em fala (TTS), permitindo opções flexíveis de saída de fala.
-
Integração de serviços de fala do Azure: Suporta serviços de fala do Azure para o texto em fala (TTS), fornecendo aos usuários uma ampla gama de opções de síntese de fala.
-
Reprodução de áudio personalizável: Permite que os usuários ajustem a velocidade de reprodução de áudio em suas preferências nas configurações do modo de chamada, aprimorando a acessibilidade e a usabilidade.
-
Compatibilidade de áudio ampla: Desfrute de suporte para uma ampla gama de transcrições de formato de arquivo de áudio com RAG, incluindo 'Audio/X-M4A', para ampliar a compatibilidade com o conteúdo de áudio na plataforma.
-
Compressão de áudio: A compactação experimental de áudio permite navegar em torno do limite de 25 MB para o processamento de fala para texto do OpenAI, expandindo as possibilidades de interações baseadas em áudio.
-
Discurso experimental TTS: Aproveite o suporte local do discurso 5 para recursos aprimorados de texto em fala.
🐍 Execução de código
-
Estrutura versátil, ui-agnóstica e compatível com o OpenAI: Integrar e personalizar perfeitamenteAbra os pipelines da webuiPara processamento de dados eficientes e treinamento de modelos, garantindo flexibilidade e escalabilidade definitivas.
-
Chamada de função python nativa: Acesse o poder do Python diretamente no Webui aberto com a chamada de função nativa. Integrar facilmente o código personalizado para criar recursos exclusivos, como pipelines RAG personalizados, ferramentas de pesquisa na web e até ações semelhantes a agentes por meio de um editor de código interno para desenvolver e integrar perfeitamente o código de função no
Tools
eFunctions
espaço de trabalho. -
Execução do código Python: Execute o código Python localmente no navegador via Pyodide com uma variedade de bibliotecas suportadas pelo Pyodide.
-
Renderização de sereia: Crie diagramas e fluxogramas visualmente atraentes diretamente no webui aberto usando oFerramenta de diagramação e gráficos de sereia, que suporta a renderização da sintaxe da sereia.
-
Suporte iframe: Ativa a renderização do HTML diretamente na sua interface de bate -papo usando funções e ferramentas.
🔒 Integração e segurança
-
Múltipla suporte da API compatível com o OpenAi: Integrar e personalizar perfeitamente várias APIs compatíveis com o OpenAI, aprimorando a versatilidade das suas interações de bate-papo.
-
Gerenciamento de chave de API simplificado: Gere e gerencie facilmente as chaves secretas para aproveitar o Webui aberto com as bibliotecas do OpenAI, simplificando a integração e o desenvolvimento.
-
Suporte de proxy HTTP/s: Definir configurações de rede facilmente usando o
http_proxy
ouhttps_proxy
variável de ambiente. Essas variáveis, se definidas, devem conter os URLs para proxies HTTP e HTTPS, respectivamente. -
Conectividade externa do servidor ollama: Link perfeitamente a um servidor Ollama externo hospedado em um endereço diferente, configurando a variável de ambiente.
-
Integração flexível do banco de dados: Conecte -se perfeitamente a bancos de dados personalizados, incluindo sqlite, pós -gres e vários bancos de dados de vetores como o MILVUS, usando variáveis de ambiente para gerenciamento de dados flexíveis e escaláveis.
-
Suporte externo de fala para texto: A adição de fala para texto externa (
STT
) Os serviços fornecem flexibilidade aprimorada, permitindo que os usuários escolham seu provedor preferido para interação perfeita. -
Suporte remoto chromadb: Estenda os recursos do seu banco de dados conectando -se a servidores Chromadb remotos.
-
Balanceamento de carga múltipla de instância ollama: Distribua sem esforço solicitações de bate -papo em várias instâncias do Ollama para obter um desempenho e confiabilidade aprimorados.
-
Balanceamento e confiabilidade avançados de carga: Utilize recursos aprimorados de balanceamento de carga, instâncias sem estado com suporte completo do REDIS e reconecção automática do soquete da Web para promover um melhor desempenho, confiabilidade e escalabilidade no Webui, garantindo interações perfeitas e ininterruptas em várias instâncias.
-
Suporte experimental S3: Habilite instâncias apátridas da Webui com suporte S3 para escalabilidade aprimorada e balanceamento de cargas de trabalho pesadas.
-
OAuth Management para grupos de usuários: Aumente o controle e a escalabilidade em ambientes colaborativos com gerenciamento em nível de grupo via integração da OAuth.
👑 Administração
-
Super Administração de atribuição: Atribui automaticamente a primeira inscrição como um super administrador com uma função imutável que não pode ser modificada por mais ninguém, nem mesmo outros administradores.
-
Permissões de usuário granulares: Restrinja as ações do usuário e o acesso a permissões personalizáveis baseadas em funções, garantindo que apenas indivíduos autorizados possam realizar tarefas específicas.
-
Gerenciamento de vários usuários: Painel de administração intuitivo com paginação permite gerenciar perfeitamente vários usuários, simplificar a administração do usuário e simplificar o gerenciamento do ciclo de vida do usuário.
-
Painel de Administração: O sistema de gerenciamento de usuários foi projetado para otimizar o interior e o gerenciamento dos usuários, oferecendo a opção de adicionar usuários diretamente ou em massa via importação de CSV.
-
Indicador de usuários ativos: Monitore o número de usuários ativos e quais modelos estão sendo utilizados por quem ajudar a medir quando o desempenho pode ser impactado devido a um alto número de usuários.
-
Função de inscrição padrão: Especifique a função padrão para novas inscrições para
pending
, Assim,user
, ouadmin
, fornecendo flexibilidade no gerenciamento de permissões de usuário e níveis de acesso para novos usuários. -
Evite novas inscrições: Habilite a opção de desativar as inscrições de novas usuários, restringindo o acesso à plataforma e mantendo um número fixo de usuários.
-
Evite a exclusão de bate -papo: Capacidade para os administradores alternar uma configuração que impede que todos os usuários excluam suas mensagens de bate -papo, garantindo que todas as mensagens de bate -papo sejam retidas para fins de auditoria ou conformidade.
-
Integração WebHook: Inscreva-se em novos eventos de inscrição de usuário via webhook (compatível com
Discord
, Assim,Google Chat
, Assim,Slack
eMicrosoft Teams
), fornecendo notificações e recursos de automação em tempo real. -
Banners de notificação configuráveis: Os administradores podem criar banners personalizáveis com persistência em config.json, apresentando opções de conteúdo, cor de fundo (
info
, Assim,warning
, Assim,error
, ousuccess
), e a demitibilidade. Os banners podem ser acessados apenas para usuários conectados, garantindo a confidencialidade de informações confidenciais. -
Modelo de lista de permissões: Aprimore o controle de segurança e acesso, permitindo que os administradores sejam modelos de permissões de permissões para usuários com o
user
papel, garantindo que apenas modelos autorizados possam ser acessados. -
Controle do administrador para compartilhamento da comunidade: Os administradores podem ativar ou desativar o compartilhamento da comunidade para todos os usuários por meio de uma alternância no
Admin Panel
Settings
menu. Essa alternância permite que os administradores gerenciem acessibilidade e privacidade, garantindo um ambiente seguro. Administradores têm a opção de ativar ou desativar oShare on Community
Botão para todos os usuários, o que lhes permite controlar o envolvimento e a colaboração da comunidade. -
Autenticação de e -mail confiável: Opcionalmente, autentique usando um cabeçalho de email confiável, adicionando uma camada extra de segurança e autenticação para proteger sua instância aberta da Webui.
-
Suporte de proxy reverso de back -end: Aumente a segurança através da comunicação direta entre o back -end e o ollama do Nullcore. Esse recurso -chave elimina a necessidade de expor o Ollama pela rede local (LAN). Pedidos feitos para o
/ollama/api
A rota do webui aberta é redirecionada perfeitamente para o Ollama do back -end, melhorando a segurança geral do sistema e fornecendo uma camada adicional de proteção. -
Autenticação: Observe que o Nullcore não suporta de maneira nativamente os esquemas de autenticação federados como SSO, OAuth, SAML ou OIDC. No entanto, ele pode ser configurado para delegar a autenticação a um proxy reverso autenticação, alcançando efetivamente um único sinal (
SSO
) experiência. Essa configuração permite centralizar a autenticação e o gerenciamento do usuário, aprimorando a segurança e a conveniência do usuário. Ao integrar o Nullcore com um proxy reverso da autenticação, você pode aproveitar os sistemas de autenticação existentes e simplificar o acesso ao usuário para abrir o WebUI. Para obter mais informações sobre como configurar esse recurso, consulte oSuporte de autenticação federado -
Autenticação opcional: Aproveite a flexibilidade de desativar a autenticação ao definir
WEBUI_AUTH
paraFalse
. Esta é uma solução ideal para instalações frescas sem usuários existentes ou pode ser útil para fins de demonstração. -
Segurança avançada da API: Bloqueie os usuários da API com base em filtros de modelos personalizados, aprimorando a segurança e o controle sobre o acesso da API.
-
Atualizações do administrador: Garanta que os administradores permaneçam informados com as notificações de atualização imediata após o login, mantendo-as atualizadas sobre as últimas alterações e status do sistema.
-
Gerenciamento de grupo de usuários: Crie e gerencie grupos de usuários para organização e controle sem costura.
-
Controle de acesso baseado em grupo: Defina o acesso granular a modelos, conhecimentos, avisos e ferramentas com base em grupos de usuários, permitindo ambientes mais controlados e seguros.
-
Permissões de usuário granulares: Gerencie facilmente as permissões do espaço de trabalho, incluindo uploads de arquivos, deleções, edições e bate -papos temporários, além de modelo, conhecimento, rápido e criação de ferramentas.
-
Autenticação LDAP: Aprimore a segurança e a escalabilidade com suporte LDAP para gerenciamento de usuários.
-
Conexões OpenAI personalizáveis: Desfrute de operação suave com configurações de abertura personalizadas, incluindo suporte ao ID do prefixo e suporte explícito de ID do modelo para APIs.
-
Ollama API Key Management: Gerencie credenciais do Ollama, incluindo suporte de ID do prefixo, para operação segura e eficiente.
-
Gerenciamento de conexão: Ativar ou desativar facilmente as conexões individuais do OpenAI e o Ollama, conforme necessário.
-
Espaço de trabalho do modelo intuitivo: Gerencie modelos entre usuários e grupos com uma interface reprojetada e amigável.
-
Autenticação da chave da API: Aperte a segurança ativando ou desativando facilmente a autenticação da chave da API.
-
Redefinição do modelo unificado: Redefinir e remover todos os modelos das configurações do administrador com uma opção de um clique.
-
Controle flexível de acesso ao modelo: Ignorar facilmente os controles de acesso ao modelo para as funções do usuário quando não é necessário, usando a variável de ambiente 'Bypass_model_access_control', simplificando os fluxos de trabalho em ambientes confiáveis.
-
Restrições de autenticação da chave da API configurável: Configure flexibilidade Restrições para o terminal para a autenticação da chave da API, agora desativada por padrão para uma configuração mais suave em ambientes confiáveis.