تجربة عملية لتقنية QLoRA
تعلم كيفية ضبط نموذج LLM بدقة على مجموعة بيانات مخصصة باستخدام QLoRA.
لنقم بضبط نموذج Llama 3.1 الخاص بـ Meta بدقة علىopenai/gsm8k مجموعة البيانات باستخدام QLoRA.
قم بتثبيت التبعيات
لنبدأ أولاً بتثبيت المكتبات اللازمة لضبط الإعدادات بدقة. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا النص).
pip3 install transformers==4.44.1pip3 install acceleratepip3 install bitsandbytes==0.43.3pip3 install datasets==2.21.0pip3 install trl==0.9.6pip3 install peft==0.12.0!pip install -U "huggingface_hub[cli]"
السطر 1: نقوم بتثبيت
transformersمكتبة، وهي مكتبة Hugging Face توفر واجهات برمجة التطبيقات والأدوات لتنزيل وتدريب أحدث النماذج المدربة مسبقًا.السطر 2: نقوم بتثبيت
accelerateمكتبة مصممة لتسهيل تدريب نماذج التعلم العميق على مختلف أنواع الأجهزة. فهي تُمكّن من جعل التدريب والاستدلال بسيطين وفعالين وقابلين للتكيف.السطر 3: نقوم بتثبيت
bitsandbytesالمكتبة، وهي مكتبة محولات تساعد في تكميم النموذج.السطر 4: نقوم بتثبيت
datasetمكتبة لمشاركة مجموعات البيانات والوصول إليها من أجل المهام اللاحقة.السطر 5: نقوم بتثبيت
trlمكتبة لتدريب نماذج المحولات باستخدام التعلم المعزز والضبط الدقيق الخاضع للإشراف.السطر 6: نقوم بتثبيت
peftمكتبة لضبط نماذج اللغة الكبيرة بكفاءة عالية من خلال المعلمات للمهام اللاحقة.السطر 7: نقوم بتثبيت CLI Hugging Face لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face .
CLI Hugging Face
بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI بـ Hugging Face . تتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من خلال ...