...

/

تحديات وقيود الذكاء الاصطناعي التوليدي

تحديات وقيود الذكاء الاصطناعي التوليدي

تعرف على القيود والتحديات التي تواجه استخدام الذكاء الاصطناعي التوليدي.

سنغطي ما يلي...

مع اختتام هذه الدورة، حان الوقت للتأمل في حدود الذكاء الاصطناعي التوليدي، وهي تقنية لم تأسر خيال القطاعات فحسب، بل أصبحت رمزًا للابتكار. ومع ذلك، ورغم إمكاناتها التحويلية، إلا أنها بعيدة كل البعد عن الكمال. إن فهم هذه الحدود أمرٌ بالغ الأهمية لتصميم أنظمة أفضل ووضع توقعات واقعية في مسيرتنا المستقبلية.

وهم الكمال: نقاط الضعف الخفية للذكاء الاصطناعي التوليدي

للوهلة الأولى، يبدو تطور نماذج مثل أنظمة ماجستير القانون وأنظمة RAG مثيرًا للإعجاب. فهي تُنتج نصوصًا متماسكة، وتُنجز مهامًا، وتُجري محادثات مُعقدة. لكن وراء هذا التطور يكمن عيب رئيسي: الذكاء الاصطناعي لا يعرف ما لا يعرفه.

"أكبر مشكلة مع الذكاء الاصطناعي هي أنه لا يعرف متى لا يعرف." - غاري ماركوس (مؤتمر "طريق الفيزياء"، 2017)

تتجلى هذه المشكلة فيما يسميه الباحثون "الهلوسة" ، حيث تُنتج أنظمة الذكاء الاصطناعي نتائج غير صحيحة أو غير ذات صلة أو غير منطقية، لكنها تفعل ذلك بثقة مطلقة. على سبيل المثال، قد يصرح الذكاء الاصطناعي بثقة أن شخصية تاريخية وُلدت في القرن الخطأ، أو يخترع مفهومًا علميًا خياليًا استجابة على سؤال. تُثير هذه المشكلة قلقًا بالغًا لأن هذه الأخطاء قد تفلت من أيدي المستخدمين الذين يفترضون أن ثقة الذكاء الاصطناعي مرتبطة بالدقة.

حقيقة طريفة: هل تعلم أن الإصدارات الأولى من روبوتات الدردشة، مثل إليزا (ELIZA) في ستينيات القرن الماضي، خدعت المستخدمين وجعلتهم يعتقدون أنهم يجرون محادثات هادفة مع آلة ذكية؟ استخدم إليزا مطابقة أنماط بسيطة، لكن الناس ظلوا يعتقدون أن روبوت الدردشة يتمتع بفهم حقيقي - وهو مثال مبكر على وهم الذكاء الاصطناعي!

تخيّل روبوت دردشة يُقدّم نصائح طبية خاطئة بثقة. لا يكمن الخطر هنا في المعلومات المضللة فحسب، بل في الضرر المحتمل عند الثقة المطلقة بالذكاء الاصطناعي. هذا الوهم بالذكاء هو أحد أكبر نقاط ضعف الذكاء الاصطناعي المُولّد.

التحيز: عيب موروث في نماذج الذكاء الاصطناعي

يتعلم الذكاء الاصطناعي التوليدي من مجموعات بيانات ضخمة، غالبًا ما تُستمد من الإنترنت. ورغم أن هذا يوفر ثراءً وتنوعًا، إلا أنه يُعرّض النماذج لمعلومات متحيزة. لا يُميّز الذكاء الاصطناعي تلقائيًا بين الأنماط الضارة والمحايدة، مما قد يؤدي إلى نتائج متحيزة. على سبيل المثال، وُجد أن نموذج BERT من جوجل يُعزز التحيز الجنسي، حيث يربط الضمائر المذكرة بمهن مثل "طبيب" أو "مهندس" أكثر من الضمائر المؤنثة. حتى نماذج GPT من OpenAI واجهت تدقيقًا بسبب توليد نصوص متحيز.

Press + to interact
Sex bias in machine translation (Source: Nemani, Praneeth, Yericherla Deepak Joel, Palla Vijay, and Farhana Ferdouzi Liza. "Gender bias in transformers: A comprehensive review of detection and mitigation strategies." Natural Language Processing Journal (2023): 100047.)
Sex bias in machine translation (Source: Nemani, Praneeth, Yericherla Deepak Joel, Palla Vijay, and Farhana Ferdouzi Liza. "Gender bias in transformers: A comprehensive review of detection and mitigation strategies." Natural Language Processing Journal (2023): 100047.)

هذا التحدي يتجاوز مجرد الجانب التقني؛ فهو ذو أبعاد اجتماعية عميقة. فبدون تدابير مناسبة، قد يُعزز الذكاء الاصطناعي الصور النمطية الضارة وأوجه عدم المساواة في مختلف القطاعات، بدءًا من ممارسات التوظيف ووصولًا إلى إنفاذ القانون.

معلومة طريفة: في عام ٢٠١٦، أطلقت مايكروسوفت روبوت دردشة ذكيًا على تويتر يُدعى تاي، مُصممًا للتفاعل مع المستخدمين آنيًا. مع ذلك، تم إيقاف تاي خلال ٢٤ ساعة لأنه بدأ يُولّد ردودًا مسيئة ومتحيزة للغاية بناءً على تفاعلاته مع المتصيدين. كشفت هذه الحادثة عن مدى سرعة استيعاب الذكاء الاصطناعي للسلوكيات الضارة على الإنترنت وتكرارها.

الاعتماد على البيانات: سلاح ذو حدين

يُعدّ الاعتماد على بيانات التدريب قيدًا آخر ذا أثرٍ مُشترك. فمع بيانات عالية الجودة ومتنوعة، تتفوق النماذج. ولكن عندما تكون البيانات مُشوّهة أو محدودة أو قديمة، يتعثر الذكاء الاصطناعي. ومن الأمثلة الكلاسيكية على ذلك أداة توظيف الذكاء الاصطناعي من أمازون، التي أُلغيت بعد أن أظهرت تفضيلًا للمرشحين الذكور لأنها دُرّبت على سير ذاتية من قطاع تكنولوجيا يهيمن عليه الرجال.

الدرس هنا واضح: إن الذكاء الاصطناعي الخاص بك لن يكون جيدًا إلا بقدر البيانات التي تزوده بها.

معلومة طريفة: هل تعلم أن حتى خوارزمية بحث جوجل، وهي من أكثر أنظمة الذكاء الاصطناعي تطورًا، معرضة للتحيز أيضًا؟ في عام ٢٠١٥، اضطرت الشركة إلى تعديل خوارزمياتها بعد أن تبيّن أن عمليات البحث عن الصور لمصطلحات مثل "الرئيس التنفيذي" تُظهر الرجال بشكل رئيسي، مما يعزز الصور النمطية الجنسانية في قطاع التكنولوجيا. [المصدر: كاي، ماثيو، سينثيا ماتوزيك، وشون أ. مونسون. "التمثيل غير المتكافئ والصور النمطية الجنسانية في نتائج بحث الصور عن المهن". في وقائع المؤتمر السنوي الثالث والثلاثين لجمعية آلات الحوسبة الأمريكية حول العوامل البشرية في أنظمة الحوسبة ، الصفحات ٣٨١٩-٣٨٢٨، ٢٠١٥].

التزييف العميق: الجانب المظلم للإبداع

أشهر تطبيقات الذكاء الاصطناعي التوليدي هو التزييف العميق - مقاطع فيديو وصور ومقاطع صوتية تُحاكي أشخاصًا حقيقيين بشكل مقنع. ورغم أن للتزييف العميق استخدامات مشروعة في مجال الترفيه، إلا أنه يفتح الباب أيضًا أمام موجة من سوء الاستخدام المحتمل. تخيّلوا تزييفًا عميقًا لزعيم عالمي يلقي خطابًا خاطئ قد يُؤثر على الرأي العام أو يُثير الاضطرابات.

Deepfake example
Deepfake example

في عام 2019، أثناء الانتخابات الهندية، وردت تقارير عن استخدام تقنية التزييف العميق لإنشاء مقاطع فيديو ذات دوافع سياسية، مما يوضح المخاطر الأخلاقية عند استخدام الذكاء الاصطناعي كسلاح.

التأثير البيئي

هناك أيضًا تأثير بيئي. يستهلك تدريب النماذج التوليدية الضخمة كميات هائلة من الطاقة الحاسوبية، مما يؤدي إلى استهلاك مرتفع للطاقة وبصمة كربونية كبيرة. على سبيل المثال، يُقدر أن تدريب GPT-3 قد استهلك حوالي 1287 ميجاوات/ساعة من الكهرباء، وهو ما يعادل تقريبًا انبعاثات كربونية قدرها 626,155 رطلاً من الفحم المحروق. وبالمثل، فإن نموذج BERT، وهو نموذج آخر واسع الاستخدام، يُقدر أن بصمة كربونية له تعادل قيادة سيارة لمسافة 700,000 كيلومتر خلال مرحلة تدريبه.

كلما كبر النموذج، زادت الموارد التي يستهلكها. ولذلك، يُعطي الباحثون الآن الأولوية لتطوير نماذج ذكاء اصطناعي أكثر كفاءة في استخدام الطاقة للحد من هذا الضرر البيئي. وتُظهر مبادرات مثل AlphaFold من DeepMind، التي تستخدم موارد أقل مع تحقيق إنجازات ملحوظة في طي البروتينات، إمكانية تطوير نماذج ذكاء اصطناعي دون التسبب في أضرار بيئية جسيمة.

علاوةً على ذلك، تستكشف OpenAI وشركات أخرى تقنيات تحليل النماذج وكفاءة الأجهزة لتقليل استهلاك الطاقة. ومن خلال تحسين كلٍّ من الخوارزميات والأجهزة المستخدمة في التدريب، يُبشّر بجعل التطورات المستقبلية في مجال الذكاء الاصطناعي التوليدي أكثر استدامة.

فهم ما هو غير مفهوم

من التحديات الأخرى التي تواجه الذكاء الاصطناعي التوليدي طبيعته الغامضة . فعلى عكس الخوارزميات التقليدية، حيث يمكنك تتبع كيفية وصول إدخال إلى إخراج، غالبًا ما تكون نماذج الذكاء الاصطناعي التوليدي غامضة، حتى بالنسبة لمُبتكريها. فالقرارات تظهر، ولكن يصعب فهم أسبابها.

Press + to interact
Opaque box
Opaque box

يُشكّل هذا الأمر إشكاليةً خاصةً في مجالاتٍ مثل الرعاية الصحية، حيث يُعدّ فهم الأساس المنطقي للتشخيص أو العلاج أمرًا بالغ الأهمية. ومع ذلك، لا تزال الشفافية بعيدة المنال في العديد من أنظمة الذكاء الاصطناعي.

حقيقة طريفة: في عام ٢٠١٧، تفوق نظام ذكاء اصطناعي طورته جوجل هيلث على الأطباء في تشخيص بعض أمراض العيون. إلا أن الأطباء لم يتمكنوا من فهم كيفية توصل الذكاء الاصطناعي إلى هذه القرارات بشكل كامل، مما أثار مخاوف بشأن كيفية استخدام الذكاء الاصطناعي في الطب دون شفافية كاملة.

المخاوف الأخلاقية: من المسؤول؟

عندما يُسبب الذكاء الاصطناعي ضررًا، من المسؤول؟ هل هو المطور، أم الشركة، أم الذكاء الاصطناعي نفسه؟ هذا السؤال محور العديد من النقاشات القانونية والأخلاقية. على سبيل المثال، تورطت المركبات ذاتية القيادة في حوادث، لكن تحديد المسؤولية أمرٌ مُعقّد. هل البرنامج هو المسؤول أم البشر الذين طوّروه؟

"بفضل الذكاء الاصطناعي، نحن نستدعي الشيطان." - إيلون ماسك

ورغم أن تصريحاته ربما تكون مبالغ فيها، فإنها تعكس قلقا أوسع نطاقا: هل نحن نصنع أدوات لا نستطيع السيطرة عليها بالكامل؟

حقيقة طريفة: في عام ٢٠١٧، توقفت تجربة ذكاء اصطناعي على فيسبوك مؤقتًا بعد أن بدأ عميلان للذكاء الاصطناعي بالتواصل بلغة يفهمها فقط! مع أن الحدث لم يكن دراماتيكيًا كما صُوّر، إلا أنه يُبرز عدم القدرة على التنبؤ بأنظمة الذكاء الاصطناعي.

موازنة الإمكانات والمزالق

يُقدّم الذكاء الاصطناعي التوليدي إمكانات هائلة، لكنه يواجه تحديات كبيرة أيضًا. من الهلوسة إلى التحيزات، ومن التزييف العميق إلى مشكلة الصندوق المُبهم، تُذكّرنا قيود الذكاء الاصطناعي بأن هذه الأنظمة أدوات، وليست بدائل للحكم البشري.

في ابتكاراتنا، يكمن مفتاح في التوازن. يُمكن للذكاء الاصطناعي أن يكون مُعزّزًا قويًا للإبداع البشري وقدرته على اتخاذ القرارات، ولكن فقط عند استخدامه بمسؤولية. فالهدف، في نهاية المطاف، ليس بناء أنظمة تُحلّ محلّنا، بل أنظمة تُعزّزنا.

في هذا الدرس، تعرّفنا على بعض التحديات والقيود. لمعرفة المزيد حول كيفية تقييم الذكاء الاصطناعي واستخدامه بمسؤولية، اطلع على هذه الدورة: الذكاء الاصطناعي المسؤول: المبادئ والممارسات .