Search⌘ K
AI Features

نماذج الدردشة والرسائل وقوالب المطالبات في LangChain

تعرف على النماذج المختلفة في إطار عمل LangChain وكيف يمكننا الاستعلام بشكل فعال عن نموذج اللغة باستخدام قوالب المطالبات.

يوفر LangChain إطار عمل للمطورين لإنشاء تطبيقات مدعومة بتقنية LLM بسرعة.

يُسهّل هذا النظام عملية التطوير من خلال توفير وصول سهل إلى نماذج لغوية مختلفة من مزودين متعددين. وهذا يُمكّن المطورين من التجربة بسرعة، واختيار النموذج الأنسب لاحتياجاتهم، والتركيز على بناء منطق التطبيق بدلاً من التعامل مع واجهات برمجة التطبيقات المختلفة للنماذج.

في هذا الدرس، سنلقي نظرة على كيفية استخدام النماذج المختلفة في LangChain وكيفية توجيه هذه النماذج بكفاءة لطرح الاستعلامات والحصول على استجابة وفقًا لذلك.

نماذج الدردشة

النموذج، أو نموذج المحادثة في سياق LangChain، هو أي نموذج لغة يمكن استخدامه في مهام لغوية متنوعة. تتراوح هذه المهام بين توليد النصوص أو تلخيصها، وصولاً إلى الإجابة على الأسئلة البسيطة أو الترجمة اللغوية.

Models in LangChain
Models in LangChain

يوفر LangChain واجهة قياسية مع العديد من نماذج التعلم الآلي، مثل ChatGPT و Claude و Mistral وما إلى ذلك.

سنركز هنا على نموذج Llama LLM الخاص بـ Meta مع Groq . لنبدأ بمثال بسيط للاستعلام عن نموذج Llama باستخدام إطار عمل LangChain.

Python 3.10.4
from langchain_groq import ChatGroq
llm = ChatGroq(model="meta-llama/llama-4-scout-17b-16e-instruct")
response = llm.invoke("What is the tallest building in the world?")
print(response.content)
  • السطر 1: استيرادChatGroq طريقة منlangchain_groq وحدة نمطية. تم تثبيتها باستخدام نقطة pip install langchain-groq يأمر.

  • السطر 3: ابدأ تشغيل النموذج عبرChatGroq الطريقة. نمرر اسم النموذج الذي نختاره، وهوmeta-llama/llama-4-scout-17b-16e-instruct يمكن الاطلاع على معلومات حول الطرازات من خلال منصة Groq التجريبية.

  • السطر 5: توليد استجابة من النموذج باستخدامinvoke الطريقة. في LangChain،invoke تُنفّذ هذه الطريقة سلسلة أو مكونًا، حيث تُمرّر إدخال وتستقبل إخراج. قد يختلف إدخال باختلاف السلسلة أو المكون المُستدعى، ولكن تشمل الأنواع الشائعة السلاسل النصية والقواميس والقوائم. هنا، نُمرّر سلسلة نصية. ...