نماذج الدردشة والرسائل وقوالب المطالبات في LangChain
تعرف على النماذج المختلفة في إطار عمل LangChain وكيف يمكننا الاستعلام بشكل فعال عن نموذج اللغة باستخدام قوالب المطالبات.
سنغطي ما يلي...
يوفر LangChain إطار عمل للمطورين لإنشاء تطبيقات مدعومة بتقنية LLM بسرعة.
يُسهّل هذا النظام عملية التطوير من خلال توفير وصول سهل إلى نماذج لغوية مختلفة من مزودين متعددين. وهذا يُمكّن المطورين من التجربة بسرعة، واختيار النموذج الأنسب لاحتياجاتهم، والتركيز على بناء منطق التطبيق بدلاً من التعامل مع واجهات برمجة التطبيقات المختلفة للنماذج.
في هذا الدرس، سنلقي نظرة على كيفية استخدام النماذج المختلفة في LangChain وكيفية توجيه هذه النماذج بكفاءة لطرح الاستعلامات والحصول على استجابة وفقًا لذلك.
نماذج الدردشة
النموذج، أو نموذج المحادثة في سياق LangChain، هو أي نموذج لغة يمكن استخدامه في مهام لغوية متنوعة. تتراوح هذه المهام بين توليد النصوص أو تلخيصها، وصولاً إلى الإجابة على الأسئلة البسيطة أو الترجمة اللغوية.
يوفر LangChain واجهة قياسية مع العديد من نماذج التعلم الآلي، مثل ChatGPT و Claude و Mistral وما إلى ذلك.
سنركز هنا على نموذج Llama LLM الخاص بـ Meta مع Groq . لنبدأ بمثال بسيط للاستعلام عن نموذج Llama باستخدام إطار عمل LangChain.
السطر 1: استيراد
ChatGroqطريقة منlangchain_groqوحدة نمطية. تم تثبيتها باستخدام يأمر.نقطة pip install langchain-groq السطر 3: ابدأ تشغيل النموذج عبر
ChatGroqالطريقة. نمرر اسم النموذج الذي نختاره، وهوmeta-llama/llama-4-scout-17b-16e-instructيمكن الاطلاع على معلومات حول الطرازات من خلال منصة Groq التجريبية.السطر 5: توليد استجابة من النموذج باستخدام
invokeالطريقة. في LangChain،invokeتُنفّذ هذه الطريقة سلسلة أو مكونًا، حيث تُمرّر إدخال وتستقبل إخراج. قد يختلف إدخال باختلاف السلسلة أو المكون المُستدعى، ولكن تشمل الأنواع الشائعة السلاسل النصية والقواميس والقوائم. هنا، نُمرّر سلسلة نصية. ...