TLB News (طلبة نيوز للإعلام الحر)
سياسات الذكاء الاصطناعي في التعليم العالي: حماية للقيم لا تقييد للأدوات
19/07/2025 - 2:30pm

طلبة نيوز - د. زياد أبو الرُّب - الجامعة الألمانية الأردنية

لم يعد التعامل مع الذكاء الاصطناعي في الجامعات مسألة اختيار أو رفاه تنظيمي. في كل قاعة محاضرات، وكل مشروع بحثي، وكل مهمة تقييم، تسلل الذكاء الاصطناعي ليصبح حاضرًا بطرقه المتعددة. وبينما تتسارع وتيرة استخدام أدوات مثل (ChatGPT) و(Gemini) و(Copilot)، تجد المؤسسات التعليمية نفسها أمام سؤال جوهري: كيف نحتوي هذه التقنيات بما يخدم رسالتنا التربوية، دون أن نضيع بين منطق المنع المطلق والانفتاح غير المنضبط؟ الجواب لا يكمن في الحماس ولا في الحذر، بل في امتلاك بوصلة أخلاقية واضحة تنظم الاستخدام، وتحمي القيم، وتوجّه الابتكار.
يتعامل العالم كله اليوم مع الذكاء الاصطناعي كحقيقة لا كاحتمال. لا يكاد قطاع ينجو من تأثيراته: التعليم، والصحة، والأمن، والإعلام، والصناعة. وفي ظل هذا التوسع، بدأت تتزايد الدعوات إلى تأطير هذه التقنيات ضمن مبادئ وأخلاقيات واضحة، تضمن ألا يتحوّل الذكاء إلى خطر، ولا التقنية إلى سلطة تتحكم في الإنسان. وضعت منظمة التعاون الاقتصادي والتنمية (OECD) أولى هذه المبادئ عام 2019، ثم تبعتها اليونسكو بتوصية تاريخية عام 2021، لتتوج أوروبا ذلك بتشريع قانوني حازم صدر عام 2024، يميز بين الاستخدامات المحظورة والخطرة والمسموحة بشروط.
لكن هذه المبادئ ليست ترفًا تنظيريًا، بل ضرورة أخلاقية وعملية. فالذكاء الاصطناعي قد يُنتج معرفة مشوهة، أو يُعزز التمييز، أو ينتهك الخصوصية، أو يُضعف أصالة البحث، كما يغري الطالب بالحلول الجاهزة على حساب الجهد والفهم. والأسوأ من ذلك، أنه قد يُوظَّف في سياقات رقابية تُقيد الحرية الأكاديمية والفكرية إذا لم تُضبط آلياته باحتراف ومسؤولية.
لم يتأخر الأردن في إدراك هذه التحولات، فقد أطلق عام 2023 "الاستراتيجية الوطنية للذكاء الاصطناعي" والتي تضمنت أهدافًا واضحة لتوظيف الذكاء الاصطناعي في التعليم والاقتصاد والخدمات، وأشارت ضمنًا إلى ضرورة تطوير مبادئ للاستخدام الآمن والمسؤول. لكن ما زال تطبيق هذه المبادئ على مستوى الجامعات والمدارس في بداياته، بل ويحتاج إلى توجيه ممنهج وحوار مؤسسي جاد.
ما تزال أغلب المبادئ الأخلاقية للذكاء الاصطناعي ذات طابع استرشادي، لكنها تتحول تدريجيًا إلى التزام قانوني كما هو الحال في الاتحاد الأوروبي. أما في السياق الجامعي، فإن المبادرات الذاتية مثل تلك التي أطلقتها جامعة هارفارد تُثبت أن السياسات الداخلية قادرة على تنظيم استخدام الأدوات الذكية، وتحديد متى وكيف ولماذا تُستخدم، وتوضيح مسؤولية كل طرف. ولا يتعلق الأمر بمنع التقنية بل بإدارتها بذكاء.
في السياق التعليمي، من الضروري أن نُطور أدلة للاستخدام التربوي المسؤول، تتضمن نماذج تقييم تتحدى قدرات الذكاء الاصطناعي على الإجابة، وتُدرب المعلمين على توظيفه في شرح المفاهيم وتحليل بيانات الطلبة لا استبدالهم. كما ينبغي إلزام الباحثين بالإفصاح عن استخدام الأدوات الذكية في الكتابة أو التحليل، بما يضمن الشفافية والأصالة. وعلى الجامعات أن تُعدّل أدلة النزاهة الأكاديمية لتشمل الذكاء الاصطناعي، وتوفر تدريبًا دوريًا للكادر الأكاديمي والإداري حول الاستخدام الأخلاقي والفعال لهذه الأدوات.
إن بناء سياسات داخلية للاستخدام الأخلاقي للذكاء الاصطناعي يجب أن يكون أولوية في كل جامعة ومؤسسة تعليمية. لا يجوز الانتظار حتى تصدر قوانين مركزية. فكل مؤسسة مسؤولة عن صيانة رسالتها، وضمان نزاهة مخرجاتها، وحماية طلبتها من الجهل بالتقنية أو الإفراط في استخدامها دون وعي. إنّ وجود سياسة داخلية واضحة، قائمة على مبادئ الشفافية، والعدالة، والسلامة، واحترام الخصوصية، لم يعد رفاهًا تنظيميًا، بل ضرورة لحماية العملية التعليمية من الفوضى المعرفية والانزلاق الأخلاقي.
تثبت التجارب الدولية الناجحة أن التقدم التكنولوجي لا يتعارض مع المبادئ، بل يعززها حين يُدار برؤية. صَنّف الاتحاد الأوروبي التطبيقات حسب خطورتها، ووضعت وزارة التعليم الأميركية إطارًا يربط التقنية بالعدالة ومركزية المُعلم، فيما لم تتردد الشركات العالمية الكبرى في وضع حدود داخلية للاستخدام وميثاق للمساءلة. أما في منطقتنا العربية، فبعض الجامعات الرائدة بدأت تتحرك نحو سياسات توجيهية، لكن الصورة العامة ما تزال ضبابية وتفتقر إلى التوحيد والجرأة في التفعيل.

لكن كل تلك التجارب تشترك في شيء واحد: أنها لم تنتظر. وهذا بالضبط ما نحتاجه في جامعاتنا. انتظار التشريعات لن يحل المعضلة. الانتظار تأخير، والتأخير في عالم الذكاء الاصطناعي يعني أن نأتي متأخرين كثيرًا. الجامعات التي تؤمن برسالتها التربوية عليها أن تبادر، لا بوضع سياسة شكلية، بل بصياغة إطار تطبيقي تشاركي، يجمع بين المُعلمين والطلبة وبقية الأطراف ذات العلاقة، ويترجم المبادئ الأخلاقية إلى ممارسات يومية.
الذكاء الاصطناعي ليس عدوًا، لكنه ليس صديقًا بالضرورة. إنه أداة قوية، ونحن من نُحدد طبيعتها. بوصلة الأخلاق هي ما تجعل الذكاء الاصطناعي يخدم الإنسان لا العكس. وإذا لم نغرس الضمير في التقنية، فسنحصد نتائج بلا إنسانية. والجامعات، باعتبارها مؤسسات عقل ومعرفة، هي أول من يجب أن يتحرك، لا لتكبح الذكاء، بل لتوجهه. وفي زمنٍ تسبق فيه الخوارزميات وعينا، تبقى المبادئ هي ما يمنحنا الاتجاه ويحفظ للمعرفة معناها.

اضف تعليقك

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.
Image CAPTCHA
أدخل الحروف التي تظهر بالصورة (بدون فراغات)