ما هو LangChain ولماذا هو مهم؟

اكتشف ما هو LangChain وكيف يمكّن طلاب LLM من القيام بالمزيد.

سنغطي ما يلي...

كما نعلم، يكمن جوهر هذا الذكاء الاصطناعي التوليدي في نماذج لغوية ضخمة، أو ما يُعرف بـ LLMs. دُرِّبت هذه النماذج المتطورة على كميات هائلة من بيانات النصوص، مما مكّنها من أداء مهام مثل الكتابة والتلخيص والترجمة.

إنهم أقوياء!

حسنًا، إليكم الأمر: قد يكون استخدام برامج الماجستير في القانون، بمفردها، صعبًا. فهي لا تعرف دائمًا كيفية حل المشكلات المعقدة بمفردها أو التواصل مع مصادر معلومات أخرى. وهنا يأتي دور LangChain يأتي في!

ما هو LangChain؟

LangChain أشبه بمجموعة أدوات لبناء تطبيقات مع حاملي شهادات الماجستير في القانون. فهو يوفر طريقةً لاستخدام نماذج الذكاء الاصطناعي المتقدمة بفعالية. تخيله كمجموعة تعليمات تساعدك على توجيه حاملي شهادات الماجستير في القانون والتواصل معهم بناء مشروع أكبر وأكثر فائدة.

Interaction with external data sources using LangChain
Interaction with external data sources using LangChain

يُساعد LangChain بعدة طرق مفتاح . أولًا، يُتيح لنا ربط إجراءات متعددة في برنامج ماجستير إدارة الأعمال (LLM) معًا، مما يُمكّننا من أداء مهام مُعقدة. ثانيًا، يُتيح لطلاب ماجستير إدارة الأعمال (LLM) الوصول إلى معلومات خارج نطاق معرفتهم المُكتسبة واستخدامها. يُعد هذا أمرًا بالغ الأهمية عند العمل مع أمور مثل الأخبار الحالية أو بيانات مُحددة. بشكل عام، يُحوّل LangChain الإمكانات المُجردة لبرنامج ماجستير إدارة الأعمال (LLM) إلى أداة يُمكننا استخدامها بناء تطبيقات عملية.

LangChain هو برنامج مفتوح المصدر ومتاح باللغتين Python و JavaScript.

تُشجّع طبيعتها مفتوحة المصدر التعاون بين مجتمع المطورين، مما يُنتج تطبيقات مبتكرة وقدرات مُحسّنة بسرعة. ومن نتائج هذا التعاون التكامل السريع بين مُقدّمي الخدمات المُختلفين.

لماذا يجب عليك تعلم LangChain؟

بعد أن فهمنا كيف يُبسّط LangChain العمل مع برامج ماجستير القانون، دعونا نستكشف أهمية تعلّمه. حسنًا، يُبسّط LangChain عملية بناء تطبيقات الذكاء الاصطناعي بشكل كبير. فبدلًا من التعامل مع تعقيدات برامج ماجستير القانون، يُتيح لك LangChain التركيز على بناء رؤيتك. يُسهّل الأمر حتى للمبتدئين!

مع LangChain، يمكنك إنشاء مجموعة واسعة من التطبيقات. روبوتات دردشة بمحادثات تحاكي محادثات البشر، وأدوات ذكاء اصطناعي تساعدك في الكتابة أو البحث، وأدوات تحليل بيانات تُقدم رؤى ثاقبة. الإمكانيات واسعة حقًا.

علاوةً على ذلك، مع تزايد أهمية الذكاء الاصطناعي، أصبحت معرفة كيفية استخدام أدوات مثل LangChain مهارةً قيّمة. وسيزداد الطلب على من يفهمون هذه التقنية.

هذه دورة مناسبة للمبتدئين. إذا كنتَ مُلِمًّا بأساسيات برمجة Python ، فأنتَ جاهزٌ تمامًا. لا يُشترط أي خبرة سابقة في مكتبات الذكاء الاصطناعي/التعلم الآلي. ما نطلبه هو الاهتمام بالذكاء الاصطناعي والرغبة في التعلم؛ وسنتولى الباقي!

يُسهّل Educative إعداد بيئة تطوير محلية. سيعمل كودك مباشرةً على منصة Educative - لا حاجة للتثبيت!

ماجستير في القانون مجاني مع API Groq

ستعتمد هذه الدورة بشكل أساسي على نموذج لغة ميتا Llama 3. يُسهّل مزوّد الاستدلالات Groq هذا الأمر. يوفر Groq وصولاً سخيًا جدًا إلى معظم النماذج في النسخة المجانية!

ملاحظة: بينما يُقدم Groq وصولاً مجانيًا سخيًا، تُقدم منصات أخرى مثل HuggingFace أيضًا مستويات مجانية مماثلة. اخترنا Groq لدعمه الشامل لمختلف النماذج وسرعة استنتاجه الاستثنائية، وهي الأسرع المتاحة حاليًا.

دعنا ننتقل إلى الخطوات التالية لإعداد مفتاح الوصول API الخاصة بـ Groq:

  1. سنبدأ بزيارة ملعب Groq .

  2. انقر فوق "مفاتيح API " الموجودة على شريط التنقل الأيسر.

  3. الآن، انقر فوق زر "إنشاء مفتاح API " لتوليد مفتاح الجديد.

  4. تذكر أن تقوم بنسخ مفتاح لأنك لن تتمكن من عرض هذا مفتاح مرة أخرى بمجرد النقر فوق زر"تم".

  5. احفظ مفتاح في الأداة أدناه لاستخدامه طوال الدورة التدريبية باتباع الإرشادات أدناه:

    1. انقر على زر "تحرير" في الأداة التالية.

    2. أدخل مفتاح API الخاص بك فيGROQ_API_KEY مجال.

    3. انقر على زر "حفظ" .

تم تعيين مفتاح API) متغير بيئة لجميع أدوات الكود في هذه الدورة. يتيح هذا للمكتبات المعنية الوصول إليه عند الحاجة. انقر على زر "تشغيل" لاختبار مفتاح API .

لا تقلق بشأن الكود الآن، سنتعمق في التفاصيل في الدروس القادمة.

Python 3.10.4
from langchain_groq import ChatGroq
llm = ChatGroq(model="llama-3.3-70b-versatile")
messages=[{"role": "system", "content": "You are a helpful assistant."}]
user_message = {"role": "user", "content": "Hi, my name is Alex."}
response = llm.invoke(messages)
print(response.content)

الأداة أعلاه تُرسل رسالة إلى برنامج LLM الخاص بنا باستخدام مفتاح API Groq. نحن نستفيد منChatGroq الصف على الخط 3 مباشرة منlangchain_groq المكتبة التي استوردناها على السطر الأول ، وهي جزء من نظام LangChain البيئي. قد يبدو الأمر وكأننا نستدعي LLM فقط، لكن في الواقع، هذاChatGroq النموذج هو نموذج دردشة LangChain الذي ينسق كيفية تمرير المطالبة إلى LLM الأساسي، وكيفية هيكلة الرسائل، وكيفية استرداد استجابة .

يتيح لنا LangChain التفاعل بسهولة مع طلاب الماجستير. يمكنك تعديل الرسالة المرسلة إلى طالب الماجستير عن طريق تعديلcontent القسم الموجود على السطر 7 من الكود أعلاه.

كيف يعمل LangChain؟

تخيل أنك تريد تحضير وصفة معقدة. أليس من الأفضل أن تجمع المكونات معًا وتنتظر النتيجة؟ من المرجح أن تتبع وصفة بخطوات محددة، حيث تعتمد كل خطوة على سابقتها. تقوم LangChain بشيء مشابه مع برامج ماجستير القانون.

بدلاً من مطالبة طالب ماجستير القانون مباشرة بالقيام بكل شيء مرة واحدة، يسمح لك LangChain بما يلي:

  • تحديد سلسلة من الإجراءات: يمكنك إنشاء سلسلة من الإجراءات التي سينفذها طالب الماجستير في القانون. قد يكون كل إجراء مهمة مختلفة، مثل تلخيص نص، أو ترجمة محتوى، أو الإجابة عن أسئلة بناءً على مصدر معلومات محدد.

  • ربط أدوات مختلفة: يمكن لـ LangChain الاتصال بأدوات خارجية مختلفة، مثل:

    • ماجستير في القانون: لإنشاء النصوص وتحليلها وترجمتها وما إلى ذلك.

    • مصادر البيانات: لتحميل المعلومات من ملفات نصية أو قواعد بيانات أو واجهات برمجة التطبيقات.

    • أدوات مساعدة أخرى: مثل البحث على الويب أو حتى أدوات الرياضيات

  • إدارة تدفق المعلومات : يعمل LangChain كمنسق، ويضمن أن يصبح إخراج أي إجراء إدخال للإجراء التالي في السلسلة. يسمح هذا التدفق بعمليات معقدة تتجاوز ما يمكن أن تحققه مكالمة LLM واحدة.

سلسلة الكلمات أساسية لأنها تُمثل الطريقة الأساسية التي تُنظم بها LangChain عملها. تخيل سلسلة مادية ذات روابط متعددة متصلة. يُمثل كل رابط خطوةً واحدةً في عمليتك، سواءً كان ذلك استخدام شهادة ماجستير في القانون لمهمة مُحددة، أو تحويل بعض البيانات، أو استرجاع معلومات، وما إلى ذلك.

من خلال ربط هذه الإجراءات معًا، يمكنك إنشاء تدفقات عمل أكثر تعقيدًا وقوة.

A simple chain in LangChain
A simple chain in LangChain

تظهر عملية LangChain بسيطة في الصورة أعلاه، حيث تتم معالجة استعلام الإدخال (سؤال المستخدم أو بياناته) أولاً بواسطة "قالب المطالبة". قالب المطالبة هو طريقة منظمة لصياغة المطالبة بحيث يتم وضع إدخال المستخدم في سياقها وتنسيقها بوضوح لـ LLM (الذكاء الاصطناعي الأساسي). بعد أن تولد LLM استجابة، يمر هذا إخراج عبر "محلل الإخراج"، الذي يقوم بتنسيق وتنظيف استجابة، مما يضمن استخراج أي معلومات مهمة وتقديمها بطريقة سهلة الاستخدام. أخيرًا، يتم إرجاع الإجابة المكررة إلى المستخدم باعتبارها "الاستجابة" النهائية. تسلط هذه السلسلة الضوء على كيفية تعامل LangChain مع إدخال وإدارة التفاعلات مع LLM وتنسيق إخراج، مما يسمح بتفاعلات أكثر هيكلة وفائدة من مطالبة LLM مباشرة.

هذه مجرد مقدمة سريعة، نأمل أن تكون قد أثارت فضولك! الآن هو الوقت المناسب للانخراط في عالم الذكاء الاصطناعي، والتعرف على LangChain خطوة أولى فعّالة. نشجعك على بدء الاستكشاف واكتشاف ما يمكنك ابتكاره.