Skip to content

Latest commit

 

History

History
198 lines (164 loc) · 17.7 KB

README_ES.md

File metadata and controls

198 lines (164 loc) · 17.7 KB

Imagen

Comfyui_llm_party tiene la intención de desarrollar una biblioteca completa de nodos para la construcción de flujos de trabajo de LLM, basada en la interfaz de usuario extremadamente simple de comfyui como frontend. Esto permitirá a los usuarios construir sus flujos de trabajo de LLM de manera más rápida y conveniente, además de facilitar la integración de sus flujos de trabajo de imágenes.

Demostración de resultados

EN.mp4

Resumen del Proyecto

ComfyUI LLM Party permite desde la llamada a múltiples herramientas LLM desde la base, la rápida configuración de un asistente AI personalizado, hasta la implementación de vectores de palabras RAG y GraphRAG para la gestión local de bases de datos de conocimiento en la industria; desde una simple línea de agentes inteligentes hasta la construcción de complejos modos de interacción radial entre agentes inteligentes y modos de interacción en círculo; desde la integración de aplicaciones sociales (QQ, Feishu, Discord) para usuarios individuales, hasta un flujo de trabajo integral de LLM+TTS+ComfyUI para trabajadores de streaming; desde el inicio sencillo que necesita un estudiante común con su primera aplicación LLM, hasta las diversas interfaces de ajuste de parámetros frecuentemente utilizadas por investigadores. Todo esto lo puedes encontrar en ComfyUI LLM Party.

Inicio rápido

  1. Si nunca has utilizado ComfyUI y al instalar LLM party en ComfyUI has encontrado algunos problemas de dependencia, haz clic aquí para descargar el paquete portátil de ComfyUI windows que incluye LLM party. ¡Atención! Este paquete portátil contiene únicamente los dos plugins: party y manager, y es exclusivamente para sistemas Windows.(En caso de que necesite instalar LLM party en un comfyui existente, este paso se puede omitir.)
  2. Arrastra los siguientes flujos de trabajo a tu comfyui, luego usa comfyui-Manager para instalar los nodos faltantes.
  1. Si estás usando la API, completa tu base_url (puede ser una API de retransmisión, asegúrate de que termine con /v1/) y api_key en el nodo de carga de API LLM. Ejemplo: https://api.openai.com/v1/
  2. Si estás usando ollama, activa la opción is_ollama en el nodo de carga de API LLM, no es necesario completar base_url y api_key.
  3. Si estás usando un modelo local, completa la ruta de tu modelo en el nodo de carga del modelo local, por ejemplo: E:\model\Llama-3.2-1B-Instruct. También puedes completar el ID del repositorio del modelo en Huggingface en el nodo de carga del modelo local, por ejemplo: lllyasviel/omost-llama-3-8b-4bits.
  4. Debido al alto umbral de uso de este proyecto, incluso si eliges el inicio rápido, espero que puedas leer pacientemente la página principal del proyecto.

Últimas Actualizaciones

  1. Se ha añadido un nuevo nodo de alojamiento de imágenes, que actualmente admite el alojamiento de imágenes de https://sm.ms (el dominio en la región de China es https://smms.app) y https://imgbb.com. En el futuro, se admitirán más alojamientos de imágenes. Ejemplo de flujo de trabajo: Alojamiento de imágenes
  2. El servicio de alojamiento de imágenes imgbb, que es compatible de manera predeterminada con party, se ha actualizado al dominio imgbb. El alojamiento anterior no era amigable para los usuarios de China continental, por lo que se ha cambiado. Lamento informar que el servicio API de alojamiento de imágenes en https://imgbb.io parece haber sido descontinuado, por lo que el código ha vuelto a la original https://imgbb.com. Agradezco su comprensión. En el futuro, actualizaré un nodo que soporte más servicios de alojamiento de imágenes.
  3. Se ha actualizado la herramienta MCP, puedes modificar la configuración en el archivo 'mcp_config.json' en la carpeta del proyecto party para ajustar el servidor MCP al que deseas conectarte. Puedes encontrar varios parámetros de configuración de servidores MCP que deseas agregar aquí: modelcontextprotocol/servers. La configuración predeterminada de este proyecto es el servidor Everything, un servidor destinado a probar si el servidor MCP funciona correctamente. Flujo de trabajo de referencia: start_with_MCP. Nota para desarrolladores: el nodo de la herramienta MCP puede conectarse al servidor MCP configurado y luego convertir las herramientas del servidor en herramientas que el LLM pueda utilizar directamente. Al configurar diferentes servidores locales o en la nube, puedes experimentar todas las herramientas LLM disponibles en el mundo.

Instrucciones de Uso

  1. Para las instrucciones de uso de los nodos, consulta: 怎么使用节点

  2. Si hay problemas con el plugin o tienes otras dudas, no dudes en unirte a nuestro grupo de QQ: 931057213 | discord:discord.

  3. Para más flujos de trabajo, puede consultar la carpeta workflow.

Tutoriales en video

octocat octocat

Soporte de Modelos

  1. Se admiten todas las llamadas a la API en formato OpenAI (en combinación con oneapi se pueden realizar llamadas a casi todas las API de LLM, también se admiten todas las API de retransmisión), para la elección de base_url, consulte config.ini.example. Actualmente se han probado las siguientes:
  1. Soporte para todas las llamadas a la API compatibles con aisuite:
  1. Compatible con la mayoría de los modelos locales en la biblioteca transformer (el tipo de modelo en el nodo de la cadena de modelos LLM local se ha cambiado a LLM, VLM-GGUF y LLM-GGUF, lo que corresponde a cargar directamente modelos LLM, cargar modelos VLM y cargar modelos LLM en formato GGUF). Si tu modelo LLM en formato VLM o GGUF informa un error, descarga la última versión de llama-cpp-python desde llama-cpp-python. Los modelos actualmente probados incluyen:
  1. Descarga del modelo:

Descarga

Instale utilizando uno de los siguientes métodos:

Método Uno:

  1. Busque comfyui_LLM_party en el administrador de ComfyUI e instálelo con un solo clic.
  2. Reinicie ComfyUI.

Método dos:

  1. Navegue hasta la subcarpeta custom_nodes en la carpeta raíz de ComfyUI.
  2. Clone este repositorio. git clone https://github.com/heshengtao/comfyui_LLM_party.git

Método tres:

  1. Haga clic en CODE en la esquina superior derecha.
  2. Haga clic en download zip.
  3. Extraiga el archivo comprimido descargado en la subcarpeta custom_nodes de la carpeta raíz de ComfyUI.

Implementación del entorno

  1. Navegue hasta la carpeta del proyecto comfyui_LLM_party.
  2. En la terminal, ingrese pip install -r requirements.txt para implementar las bibliotecas de terceros necesarias para este proyecto en el entorno de comfyui. Tenga en cuenta si está instalando en el entorno de comfyui y preste atención a los errores de pip en la terminal.
  3. Si está utilizando el lanzador de comfyui, deberá ingresar en la terminal ruta en la configuración del lanzador\python_embeded\python.exe -m pip install -r requirements.txt para realizar la instalación. La carpeta python_embeded generalmente está al mismo nivel que su carpeta ComfyUI.
  4. Si encuentra problemas con la configuración del entorno, puede intentar usar las dependencias del archivo requirements_fixed.txt.

Configuración

  • Puede configurar el idioma en config.ini, actualmente solo hay dos opciones: chino (zh_CN) e inglés (en_US), siendo el predeterminado el idioma de su sistema.
  • Puede utilizar uno de los siguientes métodos para configurar el APIKEY.

Método uno:

  1. Abra el archivo config.ini en la carpeta del proyecto comfyui_LLM_party.
  2. Ingrese su openai_api_key y base_url en config.ini.
  3. Si utiliza el modelo ollama, ingrese http://127.0.0.1:11434/v1/ en base_url, ollama en openai_api_key, y el nombre de su modelo en model_name, por ejemplo: llama3.
  4. Si desea utilizar herramientas de búsqueda de Google o Bing, ingrese su google_api_key, cse_id o bing_api_key en config.ini.
  5. Si desea utilizar entrada de imágenes para LLM, se recomienda usar el servicio de alojamiento de imágenes imgbb, ingresando su imgbb_api en config.ini.
  6. Cada modelo se puede configurar individualmente en el archivo config.ini, y puede consultar el archivo config.ini.example para completar la configuración. Una vez que esté configurado, solo necesita ingresar model_name en el nodo.

Método dos:

  1. Abra la interfaz de comfyui.
  2. Cree un nuevo nodo de modelo de lenguaje grande (LLM), ingresando directamente su openai_api_key y base_url en el nodo.
  3. Si utiliza el modelo ollama, utilice el nodo LLM_api, ingresando http://127.0.0.1:11434/v1/ en base_url, ollama en api_key, y el nombre de su modelo en model_name, por ejemplo: llama3.
  4. Si desea utilizar entrada de imágenes para LLM, se recomienda usar el servicio de alojamiento de imágenes imgbb, ingresando su imgbb_api_key en el nodo.

Registro de Actualizaciones

Click here

Plan de acción siguiente:

  1. Más adaptaciones de modelos;
  2. Más formas de construir agentes;
  3. Más funciones de automatización;
  4. Más funciones de gestión de bases de conocimiento;
  5. Más herramientas, más personajes.

Aviso legal:

Este proyecto de código abierto y su contenido (en adelante, "el proyecto") son solo para fines de referencia y no implican ninguna garantía expresa o implícita. Los contribuyentes del proyecto no asumen ninguna responsabilidad por la integridad, precisión, fiabilidad o aplicabilidad del proyecto. Cualquier acción que dependa del contenido del proyecto debe asumir el riesgo por su cuenta. En ningún caso, los contribuyentes del proyecto serán responsables de cualquier pérdida o daño indirecto, especial o incidental que surja del uso del contenido del proyecto.

Agradecimientos especiales

octocat octocat octocat

Lista de proyectos referenciados

Algunos nodos en este proyecto se han inspirado en los siguientes proyectos. ¡Agradecemos su contribución a la comunidad de código abierto!

  1. pythongosssss/ComfyUI-Custom-Scripts
  2. lllyasviel/Omost

Soporte:

Únete a la comunidad

Si hay problemas con el complemento o si tiene alguna otra pregunta, le damos la bienvenida a unirse a nuestra comunidad.

  1. Grupo de QQ: 931057213
  1. Grupo de WeChat: we_glm (una vez que añada a la asistente de WeChat, podrá unirse al grupo)

  2. Discord: enlace de discord

Síguenos

  1. Si desea mantenerse informado sobre las últimas funciones de este proyecto, le invitamos a seguir nuestra cuenta de Bilibili: 主持BB机
  2. youtube@comfyui-LLM-party

Apoyo a donaciones

Si mi trabajo le ha aportado valor, ¡considere invitarme a un café! Su apoyo no solo revitaliza el proyecto, sino que también calienta el corazón del creador.☕💖 ¡Cada taza cuenta!

Historial de estrellas

Gráfico de Historial de Estrellas