QLoRA عملي

تعرف على كيفية ضبط LLM على مجموعة بيانات مخصصة باستخدام QLoRA.

سنغطي ما يلي...

دعونا نقوم بضبط نموذج Meta's Llama 3.1 على مجموعة بيانات openai/gsm8k باستخدام QLoRA.

تثبيت التبعيات

أولاً، لنثبّت المكتبات اللازمة للضبط الدقيق. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا المقال).

pip3 install transformers==4.44.1
pip3 install accelerate
pip3 install bitsandbytes==0.43.3
pip3 install datasets==2.21.0
pip3 install trl==0.9.6
pip3 install peft==0.12.0
!pip install -U "huggingface_hub[cli]"
Install the dependencies
  • الخط 1: نقوم بتثبيت مكتبة transformers ، وهي مكتبة Hugging Face التي توفر واجهات برمجة التطبيقات والأدوات اللازمة لتنزيل وتدريب النماذج المدربة مسبقًا على أحدث طراز.

  • الخط الثاني: نُثبّت مكتبة accelerate ، المُصمّمة لتسهيل تدريب نماذج التعلم العميق عبر مختلف الأجهزة. فهي تُتيح التدريب والاستنتاج بشكل بسيط وفعال وقابل للتكيّف.

  • السطر 3: نقوم بتثبيت مكتبة bitsandbytes ، وهي مكتبة محولات تساعد في تحديد كمية النموذج.

  • السطر 4: نقوم بتثبيت مكتبة dataset لمشاركة مجموعات البيانات والوصول إليها للمهام اللاحقة.

  • الخط 5: نقوم بتثبيت مكتبة trl لتدريب نماذج المحولات باستخدام التعلم التعزيزي والضبط الدقيق الخاضع للإشراف.

  • السطر 6: نقوم بتثبيت مكتبة peft لضبط النماذج اللغوية الكبيرة بكفاءة عالية للمهام اللاحقة.

  • السطر 7: نقوم بتثبيت Hugging Face CLI لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face.

Hugging Face CLI

بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI Hugging Face . يتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من Hugging Face.

!huggingface-cli login --token "Enter your token" --add-to-git-credential
Logging in to Hugging Face using CLI
...