QLoRA عملي
تعرف على كيفية ضبط LLM على مجموعة بيانات مخصصة باستخدام QLoRA.
سنغطي ما يلي...
دعونا نقوم بضبط نموذج Meta's Llama 3.1 على مجموعة بيانات openai/gsm8k
باستخدام QLoRA.
تثبيت التبعيات
أولاً، لنثبّت المكتبات اللازمة للضبط الدقيق. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا المقال).
pip3 install transformers==4.44.1pip3 install acceleratepip3 install bitsandbytes==0.43.3pip3 install datasets==2.21.0pip3 install trl==0.9.6pip3 install peft==0.12.0!pip install -U "huggingface_hub[cli]"
الخط 1: نقوم بتثبيت مكتبة
transformers
، وهي مكتبة Hugging Face التي توفر واجهات برمجة التطبيقات والأدوات اللازمة لتنزيل وتدريب النماذج المدربة مسبقًا على أحدث طراز.الخط الثاني: نُثبّت مكتبة
accelerate
، المُصمّمة لتسهيل تدريب نماذج التعلم العميق عبر مختلف الأجهزة. فهي تُتيح التدريب والاستنتاج بشكل بسيط وفعال وقابل للتكيّف.السطر 3: نقوم بتثبيت مكتبة
bitsandbytes
، وهي مكتبة محولات تساعد في تحديد كمية النموذج.السطر 4: نقوم بتثبيت مكتبة
dataset
لمشاركة مجموعات البيانات والوصول إليها للمهام اللاحقة.الخط 5: نقوم بتثبيت مكتبة
trl
لتدريب نماذج المحولات باستخدام التعلم التعزيزي والضبط الدقيق الخاضع للإشراف.السطر 6: نقوم بتثبيت مكتبة
peft
لضبط النماذج اللغوية الكبيرة بكفاءة عالية للمهام اللاحقة.السطر 7: نقوم بتثبيت Hugging Face CLI لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face.
Hugging Face CLI
بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI Hugging Face . يتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من Hugging Face.
!huggingface-cli login --token "Enter your token" --add-to-git-credential