Search⌘ K
AI Features

تجربة عملية لتقنية QLoRA

تعلم كيفية ضبط نموذج LLM بدقة على مجموعة بيانات مخصصة باستخدام QLoRA.

لنقم بضبط نموذج Llama 3.1 الخاص بـ Meta بدقة علىopenai/gsm8k مجموعة البيانات باستخدام QLoRA.

قم بتثبيت التبعيات

لنبدأ أولاً بتثبيت المكتبات اللازمة لضبط الإعدادات بدقة. سنقوم بتثبيت أحدث إصدارات المكتبات (وقت كتابة هذا النص).

pip3 install transformers==4.44.1
pip3 install accelerate
pip3 install bitsandbytes==0.43.3
pip3 install datasets==2.21.0
pip3 install trl==0.9.6
pip3 install peft==0.12.0
!pip install -U "huggingface_hub[cli]"
Install the dependencies
  • السطر 1: نقوم بتثبيتtransformers مكتبة، وهي مكتبة Hugging Face توفر واجهات برمجة التطبيقات والأدوات لتنزيل وتدريب أحدث النماذج المدربة مسبقًا.

  • السطر 2: نقوم بتثبيتaccelerate مكتبة مصممة لتسهيل تدريب نماذج التعلم العميق على مختلف أنواع الأجهزة. فهي تُمكّن من جعل التدريب والاستدلال بسيطين وفعالين وقابلين للتكيف.

  • السطر 3: نقوم بتثبيتbitsandbytes المكتبة، وهي مكتبة محولات تساعد في تكميم النموذج.

  • السطر 4: نقوم بتثبيتdataset مكتبة لمشاركة مجموعات البيانات والوصول إليها من أجل المهام اللاحقة.

  • السطر 5: نقوم بتثبيتtrl مكتبة لتدريب نماذج المحولات باستخدام التعلم المعزز والضبط الدقيق الخاضع للإشراف.

  • السطر 6: نقوم بتثبيتpeft مكتبة لضبط نماذج اللغة الكبيرة بكفاءة عالية من خلال المعلمات للمهام اللاحقة.

  • السطر 7: نقوم بتثبيت CLI Hugging Face لتسجيل الدخول والوصول إلى النموذج ومجموعة البيانات من Hugging Face .

CLI Hugging Face

بعد تثبيت المكتبات المطلوبة، حان وقت تسجيل الدخول إلى CLI بـ Hugging Face . تتطلب Hugging Face هذه الخطوة للوصول إلى أي نموذج أو مجموعة بيانات من خلال ...