مقالات رأي

10 أسئلة لإعادة تصور التعليم العالي في عصر الذكاء الاصطناعي

(الآراء الواردة في هذا المقال هي آراء شخصية للكاتب ولا تعبر بالضرورة عن وجهة نظر الفنار للإعلام).

إذا سألت روبوت المحادثة  ChatGPT عن المهارات الأساسية التي يجب على القائد الفعّال تطويرها في عصر الذكاء الاصطناعي، فسوف تحصل على قائمة من السمات المقنعة وذات الصلة. يبرز الذكاء الاصطناعي كأداة تحويلية في التعليم العالي، ويكشف عن مجموعة من الاحتمالات الحالية والمستقبلية، المثيرة والمتنوعة.

ومع ذلك، لا تزال هناك العديد من الأسئلة التي يجب على المعلمين، والمؤسسات التعليمية معالجتها في عام 2024، بهدف الإبحار في هذا المشهد التكنولوجي دائم التطور، والاستفادة منه.

تقوم روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT، بإنشاء النصوص أو الصور بناءً على أسئلة المستخدمين، أو مطالبهم. في كثير من الأحيان، يُقال إن سر الطلبات الفعالة يكمن في طرح أسئلة ذات صلة ومدروسة جيدًا. ازداد اهتمامي بهذه الفرضية عندما كنت أستعدُ لحلقة نقاش الشهر الماضي في مؤتمر وحفل توزيع جوائز «كيو أس» لإعادة تصور التعليم 2023، الذي نظمته كواكواريلي سيموندس QS في أبو ظبي، حيث ناقشنا التطبيقات المحتملة المختلفة للذكاء الاصطناعي في التعليم العالي، والشكوك العديدة التي تحيط بها.

في هذا المقال، أحاول استكشاف عشرة أسئلة أساسية لإعادة تصور التعليم العالي في عصر الذكاء الاصطناعي:

  1. هل يمكن أن يكون الذكاء الاصطناعي متعدد اللغات، وأحادي الثقافة في الوقت نفسه؟ بما أن أكثر من نصف المحتوى المتاح على الإنترنت باللغة الإنجليزية، تليها اللغة الروسية (أقل من 10%)، ونسبة صغيرة فقط باللغة الإسبانية (5%)، فإن نماذج الذكاء الاصطناعي المدربة على البيانات المجمعة من الإنترنت يمكن أن تُديم التحيزات الثقافية الحالية. لذا، يشعر بعض المؤلفين بالقلق من أن ChatGPT يعكس في الغالب ثقافة واحدة أو يتحيّز لها. كيف يمكننا دمج مجموعات بيانات أكثر تنوعًا في تطوير نماذج الذكاء الاصطناعي، بما يضمن توافر نطاق أوسع من وجهات النظر الثقافية؟

2. هل نخصص المزيد من الموارد لتعليم الآلات كيفية التعلم بدلًا من تعليم البشر كيفية التعلم؟ أدى تطور نماذج اللغات الكبيرة (LLMs)، وهي خوارزميات حل المشكلات الموجودة في قلب روبوتات الدردشة العاملة بالذكاء الاصطناعي، إلى تركيز النقاش حول كيفية إطعام وتعليم هذه «الآلات»، مع إهمال الجانب الأساسي المتمثل في تعليم البشر كيفية التعلم بفعالية وبشكل مستقل. في أحدث كتبه، يوضح هيكتور رويز مارتن، مدير المؤسسة الدولية لتعليم العلوم، أهمية معرفة المعلم للآليات المعرفية والعاطفية التي تحكم عملية التعلم لتعليم الطلاب كيفية الدراسة والتعلم والحفظ.

3. بالعودة إلى السؤال الأولي: ما هي الكفاءات الواجب توافرها في القائد الجيد للاستفادة بشكل سليم من الذكاء الاصطناعي في التعليم؟ ووفقا لدييجو ألكازار، الرئيس التنفيذي للجامعة الدولية بإسبانيا IE، فإن أدوات الذكاء الاصطناعي الجديدة ستسمح للقادة برفع المهارات المختلفة إلى مستوى غير مسبوق. من خلال تحليلي، يجب على القائد في أي مؤسسة، أو شركة في عصر الذكاء الاصطناعي تطوير أربع كفاءات رئيسية على الأقل:

  • المعرفة الأساسية بالذكاء الاصطناعي، وفهم ماهيته وسُبل عمله. والأصعب من ذلك قدرة القادة على البقاء على اطلاعٍ دائم في بيئة تكنولوجية دائمة التغير.
  • مهارات اتخاذ القرار المبنية على البيانات، وتطوير القدرة على تفسير، واستخدام، وتخفيف التحيزات في هذه البيانات. كيف يمكن للقادة أن يكونوا مستعدين لاكتشاف هذه التحيزات؟
  • الالتزام بالاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي، ومعالجة قضايا مثل الخصوصية والإنصاف. ما هي المخاوف بشأن التطبيقات المستقبلية للذكاء الاصطناعي التي دفعت شركة OpenAI، التي طورت ChatGPT، إلى إقالة رئيسها التنفيذي في أواخر العام الماضي، قبل الموافقة على إعادته إلى منصبه بعد أربعة أيام؟
  • وأخيرًا: التفكير النقدي لتحديد الأسئلة الصحيحة. ما هي الأساليب الأكثر فعالية لتطوير مهارات التفكير النقدي التي تمكّن الأفراد من تحديد، وطرح الأسئلة الأكثر صلة بالموضوع؟

4. ما مدى اتساع نطاق الذكاء الاصطناعي وإمكاناته في التعليم؟ تقترح كلية هارفارد للأعمال مجموعة واسعة من المواقف التي يمكن أن يكون فيها الذكاء الاصطناعي مفيدًا جدًا في تعلم الطلاب. يمكن أن يعمل الذكاء الاصطناعي كمدرس شخصي، يتكيف مع المستويات والاحتياجات الفردية لكل طالب. كما أن لديها قدرة واعدة على تقديم تعليقات شخصية للطلاب، ولكننا نواجه أيضًا معضلات أخرى. هل سيكون من المناسب لنموذج اللغات الكبيرة تعيين الدرجات النهائية في التقييمات الأكاديمية؟ كيف يمكننا تحديد ما إذا كان الأمر غير عادل، أو غير صحيح؟ هل يمكن تقييم الإبداع؟ في أي الحالات يعتبر الطالب أن أتمتة نتائجه «مشروعة»؟

5. كيف نتصدى للسرقة العلمية وضمان النزاهة الأكاديمية في عصر الذكاء الاصطناعي؟ على الرغم من وجود تطبيقات تنطوي على أنظمة كشف الانتحال، إلا أنها لا تزال ترتكب نسبة كبيرة من الأخطاء، بما في ذلك الإيجابيات والسلبيات الكاذبة. ويثير هذا التساؤل حول ما إذا كان التركيز على تدريس القيم الأخلاقية للاستخدام المسؤول للذكاء الاصطناعي سيكون أكثر فعالية. كيف يمكننا تطوير هذا الوعي وطرق العمل لتحديد الحالات التي يكون استخدامها جزءًا لا يتجزأ منها أم لا؟

6. هل يمكن أن يؤدي استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي إلى الاعتماد التكنولوجي المفرط، أو حتى عدم الثقة في قدرات الطلاب؟ يمكن أن يؤدي الاستخدام المفرط لأدوات الذكاء الاصطناعي إلى تقليل تطور مهارات البحث، أو التفكير النقدي، أو مهارات حل المشكلات لدى الطلاب. يمكن أن تقلل سهولة، وسرعة توفير روبوتات الدردشة للمعلومات من حافز الطالب، أو حاجته الملحوظة للتعلم والاحتفاظ بالمعلومات. وقد يشعر الطلاب أيضًا بعدم الأمان بشأن إبداعهم وأصالتهم بعد أن اعتادوا على الاعتماد على الاستجابات التي يولدها الذكاء الاصطناعي. كيف نوجه الطلاب نحو الاستخدام المسؤول لأدوات الذكاء الاصطناعي؟

7. كيف تؤثر تحيزات الذكاء الاصطناعي على نتائج النماذج اللغوية الكبيرة وقدرتها على تحديد الأنماط؟ إذا تدرب نموذج لغة كبيرة على مجموعات البيانات التي تتضمن تحيزات، مثل الصور النمطية القائمة على الجنس، أو العرق، أو وجهات النظر الثقافية والجغرافية السائدة، فإن هذه التحيزات سوف تنعكس في نتائج النماذج. ما هي الآثار المترتبة على تدريب نموذج الذكاء الاصطناعي باستخدام البيانات المتحيزة؟ كيف يمكننا ضمان عدم التغاضي عن وجهات نظر الأقليات، التي تساهم في التنوع، وفي بعض الأحيان، في الحقائق الأقل اعترافًا، أو المخفية؟

8. ما هو تأثير «الهلوسة الخوارزمية»، خاصة عندما يصبح المحتوى المولّد عن طريق نماذج لغوية كبيرة شائعًا بشكل متزايد على الإنترنت؟ إذا تم تطوير هذا المحتوى بشكل سيئ، فمن الممكن أن يولد معلومات خاطئة في عمليات البحث، مما يؤدي إلى تشويه الواقع، وخلق الارتباك. كيف يمكننا معالجة وتخفيف هذه التشوهات الناتجة عن الذكاء الاصطناعي للحفاظ على سلامة المعلومات عبر الإنترنت؟

9. ما هي الحدود الأخلاقية في استخدام الذكاء الاصطناعي فيما يتعلق بالخصوصية، أو تأثيرها السياسي؟ عند إدخال البيانات الشخصية في أنظمة مثل النماذج اللغوية الكبيرة LLMs، يمكن تخزينها واستخدامها في التدريبات المستقبلية، غالبًا بدون إسناد. تُطرح أسئلة حول كيفية ضمان الخصوصية، وما هي وسائل الحماية الموجودة ضد استخدام الذكاء الاصطناعي لنشر محتوى غير دقيق، أو تمييزي، وكيف يتم تدريب هذه الأدوات، وما هي التدابير الأمنية التي يتم تنفيذها لحماية المستخدمين من المعلومات المضللة، أو التفاعلات الضارة. بالإضافة إلى ذلك، يُطرَح السؤال حول كيفية تعامل الذكاء الاصطناعي مع حقوق الطبع، والنشر، وتوزيع المحتوى.

10. الآن، بعد أن قمنا بدمج الاستدامة في التعليم على جميع المستويات، هل يقلل الذكاء الاصطناعي من بصمتنا البيئية، أم يزيدها؟ وإلى جانب تقنيات مثل إنترنت الأشياء، يوفر الذكاء الاصطناعي إمكانية تحسين استهلاك الموارد، وتعزيز الاستدامة في الجامعة، على سبيل المثال. ومع ذلك، فإن معالجة كميات كبيرة من البيانات التي يتطلبها الذكاء الاصطناعي تؤدي إلى زيادة في استهلاك الطاقة. واستنادًا إلى الدراسات، من المتوقع أن يمثل استخدام الطاقة المرتبط بقطاع تكنولوجيا المعلومات والاتصالات (ICT) بحلول عام 2040 ما يصل إلى 14% من انبعاثات الغازات الدفيئة العالمية. وستأتي معظم هذه الانبعاثات من البنية التحتية لتكنولوجيا المعلومات والاتصالات، وخاصة مراكز البيانات، وشبكات الاتصالات. نحن نواجه معضلة حاسمة: كيف يمكننا تحقيق التوازن بين فوائد الذكاء الاصطناعي للاستدامة، وتأثيره البيئي بسبب استهلاك الطاقة؟

يوفر تقاطع الذكاء الاصطناعي مع التعليم أفقًا من الاحتمالات اللانهائية، ولكنه يطرح أيضًا معضلات يجب علينا الاستمرار في معالجتها في عام 2024 بعناية وتفكير لضمان مستقبل تعليمي شامل، وأخلاقي، وفعال.

بورخا سانتوس بورّاس، نائب العميد المشارك لتعلم الابتكار في كلية IE للسياسة والاقتصاد والشؤون العالمية في الجامعة الدولية بإسبانيا IE.

اقرأ أيضًا: 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى