تسعى Comfyui_llm_party إلى تطوير مكتبة كاملة من العقد لبناء سير العمل لـ LLM، مستندةً إلى واجهة المستخدم البسيطة comfyui كواجهة أمامية. مما يتيح للمستخدمين بناء سير العمل الخاص بهم بشكل أسرع وأسهل، ويسهل دمج ذلك في سير العمل الخاص بالصور.
EN.mp4
ComfyUI LLM Party، من أبسط استدعاءات أدوات LLM المتعددة، وإعداد الشخصيات لبناء مساعد AI الخاص بك بسرعة، إلى RAG وGraphRAG القابلة للتطبيق في الصناعة لإدارة قواعد المعرفة المحلية؛ من خط أنابيب وكيل واحد إلى بناء أنماط تفاعل معقدة بين الوكلاء وأنماط تفاعل دائرية؛ من الحاجة الفردية للمستخدمين للوصول إلى تطبيقات التواصل الاجتماعي الخاصة بهم (QQ، Feishu، Discord)، إلى تدفقات العمل الشاملة التي يحتاجها العاملون في وسائل الإعلام LLM+TTS+ComfyUI؛ من بدء استخدام تطبيق LLM الأول للطلاب العاديين، إلى واجهات ضبط المعلمات التي يستخدمها الباحثون. كل هذا يمكنك العثور على إجابات له في ComfyUI LLM Party.
- إذا لم تقم باستخدام comfyui من قبل، وواجهت بعض مشاكل الاعتماد عند تثبيت LLM party في comfyui، يرجى النقر على هنا لتحميل حزمة comfyui windows المحمولة التي تحتوي على LLM party. ملاحظة! تحتوي هذه الحزمة المحمولة فقط على المكونين الإضافيين party و manager، وهي مناسبة فقط لنظام تشغيل ويندوز.(إذا كنت بحاجة لتثبيت LLM party على comfyui القائم، يمكن تخطي هذه الخطوة.)
- اسحب سير العمل التالي إلى comfyui الخاص بك، ثم استخدم comfyui-Manager لتثبيت العقد المفقودة.
- استخدم API لاستدعاء LLM: start_with_LLM_api
- استخدام aisuite لاستدعاء LLM: بدء_باستخدام_aisuite
- إدارة LLM المحلي باستخدام ollama: start_with_Ollama
- استخدم LLM المحلي بتنسيق موزع: start_with_LLM_local
- استخدم LLM المحلي بتنسيق GGUF: start_with_LLM_GGUF
- استخدم VLM المحلي بتنسيق موزع: start_with_VLM_local (تحت الاختبار، يدعم حاليًا فقط Llama-3.2-Vision-Instruct)
- استخدم VLM المحلي بتنسيق GGUF: start_with_VLM_GGUF
- إذا كنت تستخدم API، فاملأ
base_url
(يمكن أن يكون API وسيط، تأكد من أنه ينتهي بـ/v1/
) وapi_key
في عقدة تحميل API LLM. مثال:https://api.openai.com/v1/
- إذا كنت تستخدم ollama، فقم بتشغيل خيار
is_ollama
في عقدة تحميل API LLM، ولا حاجة لملءbase_url
وapi_key
. - إذا كنت تستخدم نموذجًا محليًا، فاملأ مسار النموذج الخاص بك في عقدة تحميل النموذج المحلي، على سبيل المثال:
E:\model\Llama-3.2-1B-Instruct
. يمكنك أيضًا ملء معرف مستودع النموذج في Huggingface في عقدة تحميل النموذج المحلي، على سبيل المثال:lllyasviel/omost-llama-3-8b-4bits
. - نظرًا للعتبة العالية لاستخدام هذا المشروع، حتى إذا اخترت البدء السريع، آمل أن تتمكن من قراءة الصفحة الرئيسية للمشروع بصبر.
- لقد تم إضافة نقطة استضافة صور جديدة تمامًا، والتي تدعم حاليًا خدمة استضافة الصور https://sm.ms (النطاق في مناطق الصين هو https://smms.app) بالإضافة إلى خدمة استضافة الصور https://imgbb.com، وسيتم دعم المزيد من خدمات استضافة الصور في المستقبل. نموذج سير العمل: استضافة الصور
لقد تم تحديث خدمة استضافة الصور الافتراضية المستخدمة في party إلى imgbb على هذا النطاق، حيث كانت الخدمة السابقة غير مرحب بها لمستخدمي البر الرئيسي الصيني، لذا تم تغييرها.أعتذر بشدة، يبدو أن خدمة واجهة برمجة التطبيقات لاستضافة الصور على https://imgbb.io قد توقفت، لذلك تم الرجوع إلى https://imgbb.com. أشكر الجميع على تفهمهم. سأقوم في المستقبل بتحديث خادم يدعم المزيد من خدمات استضافة الصور.- تم تحديث أداة MCP ، يمكنك تعديل الإعدادات في ملف 'mcp_config.json' الموجود ضمن مجلد مشروع party لتغيير إعدادات اتصالك بخادم MCP. يمكنك العثور هنا على مجموعة متنوعة من معلمات تكوين خوادم MCP التي ترغب في إضافتها: modelcontextprotocol/servers. في هذا المشروع، الإعداد الافتراضي هو خادم Everything، وهو خادم يُستخدم لاختبار ما إذا كان خادم MCP يعمل بشكل صحيح. مرجع سير العمل: start_with_MCP. ملاحظة للمطورين: يمكن لعقدة أداة MCP الاتصال بخادم MCP الذي قمت بتكوينه، ثم تحويل الأدوات الموجودة في الخادم إلى أدوات يمكن استخدامها مباشرة بواسطة LLM. من خلال تكوين خوادم محلية أو سحابية مختلفة، يمكنك تجربة جميع أدوات LLM المتاحة في هذا العالم.
-
يرجى الرجوع إلى تعليمات استخدام العقدة: 怎么使用节点
-
إذا كانت هناك مشاكل في المكون الإضافي أو إذا كان لديك أي استفسارات أخرى، فنحن نرحب بك للانضمام إلى مجموعة QQ: 931057213 | discord:discord.
-
يمكن الاطلاع على المزيد من سير العمل في مجلد workflow
- يدعم جميع استدعاءات واجهة برمجة التطبيقات بتنسيق openai (بالاشتراك مع oneapi يمكن استدعاء تقريبًا جميع واجهات برمجة التطبيقات LLM، كما يدعم جميع واجهات البرمجة الوسيطة)، يرجى الرجوع إلى اختيار base_url في config.ini.example، وقد تم اختبار ما يلي حتى الآن:
- openai (متوافق تمامًا مع جميع نماذج OpenAI، بما في ذلك السلسلتين 4o و o1!)
- ollama (موصى به! إذا كنت تتصل محليًا، فمن المستحسن بشدة استخدام طريقة ollama لاستضافة النموذج المحلي الخاص بك!)
- Azure OpenAI
- llama.cpp (موصى به! إذا كنت ترغب في استخدام نموذج تنسيق gguf المحلي، يمكنك استخدام واجهة برمجة تطبيقات مشروع llama.cpp للوصول إلى هذا المشروع!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- جيميناي(تم إهمال عقدة محمل API LLM الأصلية لجيميناي في الإصدار الجديد، يرجى استخدام عقدة محمل LLM API، واختر base_url ليكون: https://generativelanguage.googleapis.com/v1beta/)
- دعم جميع استدعاءات واجهة برمجة التطبيقات المتوافقة مع aisuite:
- متوافق مع معظم النماذج المحلية في مكتبة transformer (تم تغيير نوع النموذج على عقدة سلسلة نماذج LLM المحلية إلى LLM وVLM-GGUF وLLM-GGUF، مما يتوافق مع تحميل نماذج LLM مباشرة، وتحميل نماذج VLM، وتحميل نماذج LLM بتنسيق GGUF). إذا أبلغ نموذج LLM بتنسيق VLM أو GGUF عن خطأ، فيرجى تنزيل أحدث إصدار من llama-cpp-python من llama-cpp-python. النماذج التي تم اختبارها حاليًا تشمل:
- ClosedCharacter/Peach-9B-8k-Roleplay (موصى به! نموذج لعب الأدوار)
- lllyasviel/omost-llama-3-8b-4bits (موصى به! نموذج غني بالكلمات الرئيسية)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- تحميل النموذج:
- عنوان سحابة كوارك
- رابط بايدو السحابي، رمز الاستخراج: qyhu
استخدم إحدى الطرق التالية للتثبيت
- ابحث عن
comfyui_LLM_party
في مدير comfyui وقم بالتثبيت بنقرة واحدة - أعد تشغيل comfyui
- انتقل إلى المجلد الجذري لـ ComfyUI ثم إلى المجلد الفرعي
custom_nodes
- استخدم أمر استنساخ هذا المستودع.
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- انقر على الزر
CODE
في الزاوية العلوية اليمنى - انقر على
download zip
- قم بفك ضغط الملف المضغوط الذي تم تنزيله في المجلد الفرعي
custom_nodes
داخل المجلد الجذري لـ ComfyUI
- انتقل إلى مجلد المشروع الخاص بـ
comfyui_LLM_party
- في الطرفية، أدخل
pip install -r requirements.txt
لتثبيت المكتبات الخارجية اللازمة لهذا المشروع في بيئة comfyui. يرجى التأكد من أنك تقوم بالتثبيت في بيئة comfyui، وراقب أي أخطاء تظهر في الطرفية المتعلقة بـpip
- إذا كنت تستخدم مشغل comfyui، يجب عليك إدخال الأمر
مسار التكوين في المشغل\python_embeded\python.exe -m pip install -r requirements.txt
للتثبيت. عادةً ما يكون مجلدpython_embeded
في نفس مستوى مجلدComfyUI
. - إذا واجهت بعض مشاكل تكوين البيئة، يمكنك محاولة استخدام الاعتماديات الموجودة في
requirements_fixed.txt
.
- يمكنك تكوين اللغة في
config.ini
، حالياً يتوفر فقط اللغتين الصينية (zh_CN) والإنجليزية (en_US)، والافتراضي هو لغة نظامك. - يمكنك استخدام واحدة من الطرق التالية لتكوين APIKEY
- افتح ملف
config.ini
في مجلد مشروعcomfyui_LLM_party
. - في
config.ini
، أدخلopenai_api_key
وbase_url
الخاصين بك. - إذا كنت تستخدم نموذج ollama، أدخل في
base_url
http://127.0.0.1:11434/v1/
، وفيopenai_api_key
أدخلollama
، وفيmodel_name
أدخل اسم نموذجك، مثل: llama3. - إذا كنت ترغب في استخدام أدوات بحث جوجل أو بينغ، أدخل
google_api_key
وcse_id
أوbing_api_key
فيconfig.ini
. - إذا كنت ترغب في استخدام إدخال الصور في LLM، يُوصى باستخدام خدمة imgBB، أدخل
imgbb_api
الخاص بك فيconfig.ini
. - يمكن تكوين كل نموذج بشكل منفصل في ملف
config.ini
، يمكنك الرجوع إلى ملفconfig.ini.example
للملء. بعد تكوينك، تحتاج فقط إلى إدخالmodel_name
في العقدة.
- افتح واجهة comfyui.
- أنشئ عقدة نموذج لغة كبيرة (LLM)، وأدخل مباشرة
openai_api_key
وbase_url
الخاصين بك في العقدة. - إذا كنت تستخدم نموذج ollama، يرجى استخدام عقدة LLM_api، أدخل في
base_url
http://127.0.0.1:11434/v1/
، وفيapi_key
أدخلollama
، وفيmodel_name
أدخل اسم نموذجك، مثل: llama3. - إذا كنت ترغب في استخدام إدخال الصور في LLM، يُوصى باستخدام خدمة imgBB، أدخل
imgbb_api_key
الخاص بك في العقدة.
- المزيد من تكييف النماذج;
- المزيد من طرق بناء الوكلاء;
- المزيد من ميزات الأتمتة;
- المزيد من ميزات إدارة قاعدة المعرفة;
- المزيد من الأدوات، المزيد من الشخصيات.
هذا المشروع المفتوح المصدر ومحتواه (المشار إليه فيما يلي بـ "المشروع") هو لأغراض مرجعية فقط، ولا يعني أي ضمانات صريحة أو ضمنية. لا يتحمل المساهمون في المشروع أي مسؤولية عن كمال المشروع أو دقته أو موثوقيته أو ملاءمته. أي تصرف يعتمد على محتوى المشروع يجب أن يتحمل المخاطر بنفسه. في أي حالة من الأحوال، لا يتحمل المساهمون في المشروع أي مسؤولية عن أي خسائر أو أضرار غير مباشرة أو خاصة أو تبعية ناتجة عن استخدام محتوى المشروع.
بعض العقد في هذا المشروع مستوحاة من المشاريع التالية، نشكرهم على مساهماتهم في مجتمع المصادر المفتوحة!
إذا كانت هناك مشكلات في الملحق أو كانت لديك أي استفسارات أخرى، فلا تتردد في الانضمام إلى مجتمعنا.
- مجموعة QQ:
931057213
-
مجموعة وي شات:
we_glm
(أضف مساعدنا إلى وي شات ثم انضم إلى المجموعة) -
ديسكورد: رابط الديسكورد
- إذا كنت ترغب في متابعة أحدث ميزات هذا المشروع، ندعوك لمتابعة حسابنا على بلي بلي: 派对主持BB机
- youtube@comfyui-LLM-party
إذا كانت أعمالي قد جلبت لك قيمة، يرجى التفكير في دعوتي لتناول فنجان من القهوة! دعمك لا ينعش المشروع فحسب، بل يدفئ قلب المبدع أيضًا.☕💖 كل فنجان له معنى!