html ⚙️ Tools | Nullcore
Pule para o conteúdo principal

⚙️ O que são ferramentas?

As ferramentas são pequenos scripts de Python que adicionam superpotências ao seu LLM. Quando ativado, eles permitem que seu chatbot faça coisas incríveis - como pesquisar na web, raspar dados, gerar imagens, voltar a usar as vozes da IA ​​e muito mais.

Pense nas ferramentas como plugins úteis que sua IA pode usar ao conversar com você.


🚀 O que as ferramentas podem me ajudar a fazer?

Aqui estão apenas alguns exemplos de quais ferramentas permitem que seu assistente de IA faça:

  • 🌍 Pesquisa na Web: Obtenha respostas em tempo real pesquisando a Internet.
  • 🖼️ Geração de imagem: Crie imagens a partir de seus prompts.
  • 🔊 Saída de voz: gerar vozes de IA usando o Elevenlabs.

Explore as ferramentas prontas para uso aqui:
Mostra as ferramentas


📦 Como instalar ferramentas

Existem duas maneiras fáceis de instalar ferramentas no Webui aberto:

  1. Vá paraBiblioteca de ferramentas comunitárias
  2. Escolha uma ferramenta e clique no botão Get.
  3. Digite o endereço IP ou URL da sua instância do Web.
  4. Clique em "Importar para Webui" - Concluído!

🛑 Dica de segurança: nunca importe uma ferramenta em que você não reconheça ou confie. Estes são scripts Python e podem executar o código inseguro.


🔧 Como usar as ferramentas em webui aberto

Depois de instalar ferramentas (mostraremos como abaixo), veja como habilitá -las e usá -las:

Você tem duas maneiras de ativar uma ferramenta para o seu modelo:

➕ Opção 1: Ativar na janela de bate -papo

Enquanto conversava, clique no ícone ➕ na área de entrada. Você verá uma lista de ferramentas disponíveis - você pode ativar qualquer uma delas em tempo real para essa sessão.

💡 Dica: ativar uma ferramenta fornece ao modelo permissão para usá -lo - mas pode não usá -lo, a menos que seja útil para a tarefa.

  1. Vá para: Workspace ➡️ Modelos
  2. Escolha o modelo que você está usando (como GPT-4 ou LLAMA2) e clique no ícone de edição de edição.
  3. Role para baixo até a seção "Ferramentas".
  4. ✅ Verifique as ferramentas às quais você deseja que seu modelo tenha acesso por padrão.
  5. Clique em Salvar.

Isso garante que o modelo sempre tenha essas ferramentas prontas para uso sempre que você converse com ele.

Você também pode deixar seu LLM selecionar automaticamente as ferramentas certas usando o filtro AutoTool:

Filtro de autotool

🎯 Nota: Mesmo ao usar o AutoTool, você ainda precisa ativar suas ferramentas usando a opção 2.

✅ E é isso-seu LLM agora é movido a ferramentas! Você está pronto para sobrecarregar seus bate -papos com a pesquisa na web, geração de imagens, saída de voz e muito mais.


🧠 Escolhendo como as ferramentas são usadas: padrão vs nativo

Depois que as ferramentas estão ativadas para o seu modelo, o Nullcore oferece duas maneiras diferentes de permitir que seu LLM as use em conversas.

Você pode decidir como o modelo deve chamar ferramentas escolhendo entre:

  • 🟡 Modo padrão (baseado em prompt)
  • 🟢 Modo nativo (chamada de função interna)

Vamos quebrá -lo:

🟡 Modo padrão (acionamento de ferramentas com base no rápido)

Esta é a configuração padrão no webui aberto.

Aqui, seu LLM não precisa suportar a chamada de funções de suporte nativamente. Em vez disso, orientamos o modelo usando o modelo de prompt de seleção de ferramentas inteligente para selecionar e usar uma ferramenta.

✅ Funciona com quase qualquer modelo
✅ Ótima maneira de desbloquear ferramentas com modelos básicos ou locais
❗ Não é tão confiável ou flexível quanto o modo nativo ao encadear ferramentas

🟢 Modo nativo (Chamada de função embutida)

Se o seu modelo suportar a chamada de função "nativa" (como GPT-4O ou GPT-3.5-Turbo-1106), você poderá usar esse modo poderoso para deixar o LLM decidir-em tempo real-quando e como chamar várias ferramentas durante uma única mensagem de bate-papo.

✅ Rápido, preciso e pode encadear várias ferramentas em uma resposta
✅ A experiência mais natural e avançada
❗ Requer um modelo que realmente suporta chamadas de função nativa

✳️ Como alternar entre os modos

Deseja ativar a chamada de função nativa em seus bate -papos? Aqui está como:

Chat Controls

  1. Abra a janela de bate -papo com seu modelo.
  2. Clique em ⚙️Chat Controls> Params avançados.
  3. Procure a configuração de chamada de função e mude de padrão → nativo

É isso! Seu bate -papo agora está usando o verdadeiro suporte à ferramenta nativa (desde que o modelo o suporte).

➡️ Recomendamos o uso do GPT-4O ou outro modelo OpenAI para a melhor experiência de chamada de função nativa.
🔎 Alguns modelos locais podem reivindicar suporte, mas muitas vezes lutam com o uso de ferramentas preciso ou complexo.

💡 Resumo:

ModoPara quem éPrósContras
PadrãoQualquer modeloAmpla compatibilidade, mais segura, flexívelPode ser menos preciso ou mais lento
NativoGPT-4O, etc.Corrente de ferramentas rápida, inteligente e excelentePrecisa de suporte adequado de chamada de função

Escolha o que funciona melhor para a sua configuração - e lembre -se, você sempre pode ligar para os controles de bate -papo.

👏 E é isso - seu LLM agora sabe como e quando usar as ferramentas, de forma inteligente.


🧠 Resumo

As ferramentas são complementos que ajudam seu modelo de IA a fazer muito mais do que apenas um bate-papo. Desde responder a perguntas em tempo real até gerar imagens ou falar em voz alta-as ferramentas dão vida à sua IA.

  • Visita:https://doc.nullcore.com.br/toolsPara descobrir novas ferramentas.
  • Instale-os manualmente ou com um clique.
  • Habilite -os por modelo a partir de modelos de espaço de trabalho ➡️.
  • Use -os no bate -papo clicando ➕

Agora vá fazer o seu ai waaaaay mais inteligente 🤖✨