تطبيق عملي على QLoRA

تعرف على كيفية ضبط LLM على مجموعة بيانات مخصصة باستخدام QLoRA.

سنغطي ما يلي...

دعونا نقوم بضبط نموذج Meta's Llama 3.1 علىopenai/gsm8k مجموعة البيانات باستخدام QLoRA.

تثبيت التبعيات

أولاً، لنثبّت المكتبات اللازمة للضبط الدقيق. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا المقال).

pip3 install transformers==4.44.1
pip3 install accelerate
pip3 install bitsandbytes==0.43.3
pip3 install datasets==2.21.0
pip3 install trl==0.9.6
pip3 install peft==0.12.0
!pip install -U "huggingface_hub[cli]"
Install the dependencies
  • الخط 1: نقوم بتثبيتtransformers المكتبة، وهي مكتبة Hugging Face التي توفر واجهات برمجة التطبيقات والأدوات اللازمة لتنزيل وتدريب النماذج المدربة مسبقًا على أحدث طراز.

  • الخط 2: نقوم بتثبيتaccelerate مكتبة مصممة لتسهيل تدريب نماذج التعلم العميق عبر مختلف الأجهزة. فهي تُمكّن التدريب والاستنتاج من أن يكونا بسيطين وفعالين وقابلين للتكيف.

  • الخط 3: نقوم بتثبيتbitsandbytes المكتبة، وهي مكتبة المحولات التي تساعد في تحديد كمية النموذج.

  • الخط 4: نقوم بتثبيتdataset مكتبة لمشاركة مجموعات البيانات والوصول إليها للمهام اللاحقة.

  • الخط 5: نقوم بتثبيتtrl مكتبة لتدريب نماذج المحولات باستخدام التعلم التعزيزي والضبط الدقيق المشرف.

  • الخط 6: نقوم بتثبيتpeft مكتبة لضبط دقيق فعال للمعايير الخاصة بنماذج اللغة الكبيرة للمهام اللاحقة.

  • السطر 7: نقوم بتثبيت Hugging Face CLI لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face.

Hugging Face CLI

بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI Hugging Face . يتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من ...