تطبيق عملي على QLoRA
تعرف على كيفية ضبط LLM على مجموعة بيانات مخصصة باستخدام QLoRA.
سنغطي ما يلي...
دعونا نقوم بضبط نموذج Meta's Llama 3.1 علىopenai/gsm8k
مجموعة البيانات باستخدام QLoRA.
تثبيت التبعيات
أولاً، لنثبّت المكتبات اللازمة للضبط الدقيق. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا المقال).
pip3 install transformers==4.44.1pip3 install acceleratepip3 install bitsandbytes==0.43.3pip3 install datasets==2.21.0pip3 install trl==0.9.6pip3 install peft==0.12.0!pip install -U "huggingface_hub[cli]"
الخط 1: نقوم بتثبيت
transformers
المكتبة، وهي مكتبة Hugging Face التي توفر واجهات برمجة التطبيقات والأدوات اللازمة لتنزيل وتدريب النماذج المدربة مسبقًا على أحدث طراز.الخط 2: نقوم بتثبيت
accelerate
مكتبة مصممة لتسهيل تدريب نماذج التعلم العميق عبر مختلف الأجهزة. فهي تُمكّن التدريب والاستنتاج من أن يكونا بسيطين وفعالين وقابلين للتكيف.الخط 3: نقوم بتثبيت
bitsandbytes
المكتبة، وهي مكتبة المحولات التي تساعد في تحديد كمية النموذج.الخط 4: نقوم بتثبيت
dataset
مكتبة لمشاركة مجموعات البيانات والوصول إليها للمهام اللاحقة.الخط 5: نقوم بتثبيت
trl
مكتبة لتدريب نماذج المحولات باستخدام التعلم التعزيزي والضبط الدقيق المشرف.الخط 6: نقوم بتثبيت
peft
مكتبة لضبط دقيق فعال للمعايير الخاصة بنماذج اللغة الكبيرة للمهام اللاحقة.السطر 7: نقوم بتثبيت Hugging Face CLI لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face.
Hugging Face CLI
بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI Hugging Face . يتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من ...