TLB News (طلبة نيوز للإعلام الحر)
حوكمــة الذكــــاء الاصطناعـــــي
09/06/2020 - 3:00pm

بقلم: الدكتـور يوسـف إبراهيـم درادكـــة

يهدف هذا المقال الأبيض إلى إثراء النقاش الدائر حول تنفيذ الاعتبارات الأخلاقية في الذكاء الاصطناعي (منظومة الذكاء الاصطناعي) من خلال النظر في الوسائل والآليات الممكنة للتطبيق القيم والمبادئ الأخلاقية في التكنولوجيا التي تعتمد على الذكاء الاصطناعي والآلات التي يقودها الذكاء الاصطناعي من أجل المساهمة في بناء مجتمع الذكاء اصطناعي محوره الإنسان. الهدف من الذكاء الاصطناعي هو تحديد الطرق لتحديد نظام حوكمة الذكاء الاصطناعي يعزز فوائد الذكاء الاصطناعي في حين النظر في المخاطر ذات الصلة التي تنشأ عن استخدام الذكاء الاصطناعي والأنظمة المستقلة. تحقيقا لهذه الغاية، مفاهيم مختلفة التي يمكن تطبيقها لضمان عدم استخدام الذكاء الاصطناعي يتعارض مع القيم الأخلاقية. الهدف الأول تستعرض هذه الورقة بعض الشواغل الأخلاقية التي واجهتها استخدام الذكاء الاصطناعي. الهدف الثاني يحدد ويناقش مزايا وعيوب الحوكمة المختلفة الأدوات التي يمكن استحضارها لتطبيق الأخلاقيات في تطبيقات الذكاء الاصطناعي. أما الهدف الثالث فيقدم عمليا مختلفا نهج لإدارة تطبيقات الذكاء الاصطناعي. على أساس في هذه الرؤى ، يختتم الهدف الرابع بتوصيات لتطوير نظام شامل لحوكمة الذكاء الاصطناعي.
الاستخدام المتزايد للذكاء الاصطناعي والأنظمة المستقلة سوف يكون لها تأثيرات ثورية على المجتمع البشري. على الرغم من الكثير من الفوائد والذكاء الاصطناعي والأنظمة المستقلة تنطوي بشكل كبير في المخاطر التي يجب أن تدار بشكل جيد للاستفادة منها مع فوائدها لحماية القيم الأخلاقية على النحو المحدد في الحقوق الأساسية والمبادئ الدستورية الأساسية ، وبذلك يحافظ على الإنسان في مجتمع مركزي. هذه الورقة البيضاء تدعو إلى الحاجة إلى إجراء متعمق للمخاطر – الفائدة تقييمات لاستخدام الذكاء الاصطناعي والأنظمة المستقلة ويشير إلى المخاوف الرئيسية المتعلقة بها ، مثل الخسائر المحتملة في الوظائف والأضرار المحتملة التي قد تسببها ، الافتقار إلى الشفافية ، والخسارة المتزايدة للبشرية في العلاقات الاجتماعية ، وفقدان الخصوصية والشخصية الاستقلالية ، انحياز المعلومات ، وكذلك وضوح الخطأ وقابلية التلاعب بالذكاء الاصطناعي والاستقلالية بنظمة. يهدف هذا التحليل إلى رفع السياسة – صناع الوعي بحيث يعالجون هذه المخاوف والتصميم نظام حوكمة مناسب لمنظومة الذكاء الاصطناعي يحافظ على مجتمع بشري مركزي. رفع الوعي النهائي ومع ذلك ، يجب ألا يساء فهم المخاطر والمخاوف كمضاد - النهج المبتكر. بدلا من المخاطر ويجب النظر في المخاوف بشكل كاف وتأكد من أن التقنيات الجديدة مثل الذكاء الاصطناعي والاستقلالية يتم بناء الأنظمة وتشغيلها بطريقة مقبولة للمستخدمين البشريين الأفراد والمجتمع البشري ككل. مجموعة متنوعة من السياسات الممكنة - صنع أدوات التسطير أن المخاوف الأخلاقية ليست بالضرورة أفضل معالجة من قبل تشريعات أو اتفاقيات دولية ولكن ذلك ، يعمد على حسب القلق الأخلاقي في متناول اليد ، مثل هذا التنظيم البديل تدابير مثل التقييس الفني أو إصدار الشهادات يكون المفضل. للمخاوف الأخلاقية الفردية ، الثنائية قد تكون الاتفاقات التعاقدية كافية. كما هو مقترح في هذه الورقة ، نهج لتطوير الذكاء الاصطناعي البصيرة يمكن أن يكون نظام الحكم لاتباع نظام حكم متدرج نموذج لتنفيذ الاهتمامات الأخلاقية في الذكاء الاصطناعي وأنظمتة. تتكون الحوكمة الجيدة للذكاء الاصطناعي من سياسة متوازنة الاختلاط مع أكبر قدر ممكن من التشريعات الحرية قدر الإمكان ، جنبًا إلى جنب مع الشهادات المناسبة الأنظمة ومعايير التكنولوجيا والحوافز النقدية. فيما يتعلق بهذا الأخير ، ينبغي أن تأخذ الهيئات التنظيمية على وجه الخصوص مسؤوليتهم ورسائلهم بجدية ودعم فقط مشاريع البحث والتطوير التي تتوافق مع المبادئ والقيم الأخلاقية الأساسية.

اضف تعليقك

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.
Image CAPTCHA
أدخل الحروف التي تظهر بالصورة (بدون فراغات)