مبادئ وأخلاقيات الذكاء الاصطناعي

التطوّر السريع وفرص الابتكار التي تشهدها تقنية الذكاء الاصطناعي في مختلف المجالات مشوّقة. ورغم ذلك إلا أن المؤسسات التي تستخدم هذه التقنية لم تناقش بعد بشكل عميق وتفصيلي شامل المبادئ والأخلاقيات التي يجب مراعاتها أثناء استخدام الذكاء الاصطناعي، والعالم يحتاج هذه المبادئ والأخلاقيات بصفة عاجلة.

ولذلك أوجدنا منظومة أخلاقيات الذكاء الاصطناعي هذه لتكون دعماً عملياً عند تبني الذكاء الاصطناعي عبر منظومة المدن. وهي توفر لخبراء التقنية والمهتمين من الأكاديميين والأفراد دليلاً لكيفية استخدام تقنية الذكاء الاصطناعي بشكل مسؤول. وهذه المنظومة تتضمن مبادئ وإرشادات وأداة تقييم ذاتي تتيح للمطورين تقييم أنظمة الذكاء الاصطناعي التي يطورونها.

يتمثل هدفنا الرئيسي في تقديم توجيه موحّد يجري تنقيحه وتحسينه باستمرار في إطار التعاون مع مجتمعاتنا. والهدف الأسمى لنا هو التوصل إلى اتفاق واسع النطاق وتبني سياسات متفق عليها لدعم وتمكين الاستخدام الأخلاقي للذكاء الاصطناعي ليس في دبي فحسب، بل في جميع أنحاء العالم.

قم باستخدام الأداة وشاركنا ملاحظاتك.
مبادئ وأخلاقيات الذكاء الاصطناعي

مبادئ دبي للذكاء الاصطناعي

رؤيتنا لدبي هي التميز في استخدام وتطوير الذكاء الاصطناعي لسعادة ونفع البشر

الشمولية

الشمولية

يجب أن ينفع الذكاء الاصطناعي كافة أفراد المجتمع، كما يجب أن تُطبق عليه الحوكمة عالمياً، مع احترام كرامة الأفراد وحقوقهم
البشرية

البشرية

يجب أن يكون الذكاء الاصطناعي نافعًا للبشرية وأن ينسجم مع القيم الإنسانية، على الأمدين القصير والبعيد
الأمان

الأمان

يجب أن تكون أنظمة الذكاء الاصطناعي آمنة كما يجب أن تسخر في خدمة وحماية الإنسانية
الأخلاقيات

الأخلاقيات

يجب أن تكون أنظمة الذكاء الاصطناعي عادلة وتطبق الشفافية وخاضعة للمساءلة وقابلة للفهم

إرشادات أخلاقيات الذكاء الاصطناعي

تمثل توجيهاتنا الأخلاقية لاستخدام الذكاء الاصطناعي امتداداً للمبادئ المعتمدة في دبي في هذا الصدد، والتي ترتكز على أخلاقيات التعامل بعدالة وشفافية وتسعى لتحقيق المساءلة وسهولة الإيضاح.

العدالة

العدالة

  • العدالة الديموغرافية
  • العدالة في التصميم
  • العدالة في البيانات
  • العدالة في الخوارزميات
  • العدالة في النتائج
المساءلة

المساءلة

  • توزيع المسؤوليات
  • تدابير المساءلة الهادفة إلى التخفيف من المخاطر
  • إجراءات الاستئناف وخطط الطوارئ
الشفافية

الشفافية

  • القابلية للتحديد من قبل البشر
  • القابلية لتتبع سبب الضرر
  • القابلية للتدقيق من قبل العامة
القابلية للشرح

القابلية للشرح

  • قابلية العملية للتفسير
  • قابلية النتائج للتفسير
  • قابلية التفسير في المصطلحات غير الفنية
  • قنوات التفسير

المستخدمين المستهدفين

مجموعة أدوات أخلاقيات الذكاء الاصطناعي في دبي مفيدة لا سيما لثلاثة أنواع رئيسية من المستخدمين:

1. الجهات الحكومية - التي تشتري تكنولوجيات الذكاء الاصطناعي أو تطورها داخليًّا لتوفير الخدمات للمواطنين والمقيمين والزوار

2. هيئات القطاع الخاص - الشركات الناشئة والمؤسسات الكبيرة والصغيرة التي تقدم أنظمة الذكاء الاصطناعي للجهات الحكومية أو لقاعدتها الخاصة من العملاء

3. الأفراد - أي شخص مهتم بكيفية الاستخدام الأخلاقي لتكنولوجيا الذكاء الاصطناعي في المجتمع وبيئات الخدمات بالمدينة

النهج والتطوير المستقبلي

النهج والتطوير المستقبلي

يتمثل نهجنا في إنشاء تطبيقات مفتوحة المصدر. كما أننا نشجع على إجراء تقييم أخلاقي على أنظمة الذكاء الاصطناعي. ولا شك أن الملاحظات التي تصلنا من مجتمع الذكاء الاصطناعي مع أبحاثنا المستمرة ستساعد في تنقيح مجموعة أدوات أخلاقيات الذكاء الاصطناعي في دبي بحيث يواكب إطار العمل والتوجيه المقترح مع التقدم التكنولوجي. إن هدفنا على المدى القصير هو إنشاء منصة موثوقة لإجراء مزيد من النقاشات وتطوير السياسات المتعلقة بأخلاقيات الذكاء الاصطناعي. أما على المدى البعيد، فنهدف إلى تقديم خدمات استشارية وتدقيقية للمساعدة في تطبيق وصيانة وحوكمة أنظمة الذكاء الاصطناعي الأخلاقية. ونؤكد على أن توجيهاتنا ستخضع للمراجعة سنويًّا بواسطة مجلسنا الاستشاري الذي يتألف من خبراء رواد في مجال الأخلاقيات والذكاء الاصطناعي من القطاعين العام والخاص. وفي النهاية، نود أن نرى هذه التوجيهات تدعم وضع لوائح وقوانين تنير الطريق أمام تطوير أنظمة الذكاء الاصطناعي واستخدامها.

FAQ

Have a Question?
  • تتم مناقشة موضوع الأخلاقيات بشكل متزايد على الساحة الدولية مؤخراً. وتسعى الحكومات والمنظمات غير الربحية والشركات أن تفهم كيف تطور أنظمة الذكاء الاصطناعي بطريقة أخلاقية تضمن حماية الأفراد من الأذى وتفادي إلحاق الضرر بالسمعة و تكبد الخسائر القانونية. ورغم أن هنالك إدراك بأنه قد تكون هنالك حاجة إلى تنظيم هذه التكنولوجيا الناشئة إلا أن هذا المجال لم يصبح ناضجاً بما فيه الكفاية رغم وتيرة التقدم السريعة للغاية. ولا تزال المؤسسات بحاجة إلى توجيه في هذا المجال مما يستدعي  بدء المشرعين في تعلم آلية تنظيم هذه التقنية الناشئة. تقدم المبادئ العامة والمبادئ الإرشادية التوجيه اللازم دون تثبيط الإبتكار بشكل غير مبرر.

    وبالإضافة إلى ذلك، فإنه من المهم وضع رؤية موحدة بشأن أفضل الممارسات لتطوير الذكاء الاصطناعي وتوفير الوضوح لتعريف التطوير الأخلاقي. وترغب دبي في أن تكون جزءًا من هذا الحوار العالمي لترسيخ مكانتها كقائد فكر في تبني الذكاء الاصطناعي في الحكومة وخارجها.

  • الذكاء الاصطناعي هو قدرة أي وحدة وظيفية على تنفيذ وظائف ترتبط بشكل عام بالذكاء البشري مثل الاستنتاج والتعلم والتطوير الذاتي.

    إن نظام الذكاء الاصطناعي عبارة عن منتج أو خدمة أو عملية أو أسلوب لاتخاذ القرارات التي تتأثر بها العملية أو المخرج بشكل كبير  من خلال وحدات وظيفية تستخدم الذكاء الاصطناعي. وتكمن أحد الميزات المعينة لأنظمة الذكاء الاصطناعي في أنها تتعلم السلوك والقواعد غير المبرمجة فيها بوضوح. والأهم من ذلك، أنه من غير الضروري لمخرج أي نظام أن يكون محددًا بشكل منفرد من خلال الوحدات الوظيفية التي تستخدم الذكاء الاصطناعي حتى يتم تعريفه كنظام ذكي اصطناعيًا.

  • تغطي أخلاقيات الذكاء الاصطناعي مفاهيم العدالة والمساءلة والشفافية والقابلية للتفسير. في هذا القسم، لا تشتمل الأخلاقيات على المخاوف المتعلقة بالخصوصية أو دقة النموذج (إلا إذا تعلق الأمر بالعدالة والإنصاف) أو التوظيف أو أية قضايا أخرى ذات علاقة بالذكاء الاصطناعي إلى جانب العدالة والمساءلة والشفافية والقابلية للتفسير.

    1. مبادئ الذكاء الاصطناعي في دبي - مجموعة من العبارات عالية المستوى الغير ملزمة قانونياً والغير خاضعة للتدقيق في مجملها لآلية تطوير الذكاء الاصطناعي التي نرغب بها في دبي. توجد 4 مبادئ شاملة مع مبادئ فرعية تندرج تحت كل منها.

    2. التوجيهات الأخلاقية للذكاء الاصطناعي في دبي - وتمامًا كالمبادئ، تعتبر المبادئ الإرشادية أيضاً غير ملزمة قانونية وغير خاضعة للتدقيق ولكنها عملية بشكل أكبر وتنطبق على مجموعات معينة من الجهات الفاعلة. وتم تطوير مبدأ واحد فقط (الأخلاقيات) إلى مجموعة من المبادئ الإرشادية، ويمكن تطوير المبادئ العامة الأخرى بشكل مماثل في الوقت المناسب، وليس بالضرورة من قبل دبي الذكية.

    3. القائمة المرجعية للتقييم الذاتي - لجعل المبادئ الإرشادية عمليةً بشكل أكبر، قمنا بتقديم قائمة مرجعية. ومن خلال استخدام هذه القائمة المرجعية، يمكن لأي جهة أن تصنف أولاً نظام الذكاء الاصطناعي الخاص بها ومن ثم تقوم بتقييم النتيجة الأخلاقية لديها استنادًا إلى نوع النظام. ويمكن استخدام القائمة المرجعية من قبل المؤسسات المطورة للذكاء الاصطناعي بالإضافة إلى تلك المشغلة لأنظمة الذكاء الاصطناعي. ويمكن إدراجها أيضاً في طلب تقديم العروض للمؤسسات المشغلة للذكاء الاصطناعي للتحقق من النتيجة الأخلاقية لحلول الذكاء الاصطناعي لدى مورديهم. وتتحمل المؤسسات المشغلة للذكاء الاصطناعي المسؤولية عن القائمة المرجعية ويجب عليهم التأكد من تعبئة القائمة المرجعية بشكل صحيح فيما بينهم وبين المورد ووجود دليل لإثبات النتيجة الأخلاقية.

    4. مؤشرات للمؤلفات الرئيسية من أجل الخبراء الفنيين - تهدف هذه الوثيقة إلى مساعدة الخبراء الفنيين (مثل، علماء البيانات، مهندسي التعليم الآلي، مهندسي الذكاء الاصطناعي) في التحقق من آلية تطبيق الذكاء الاصطناعي الأخلاقي. ولا تعتبر هذه وثيقة شاملة حيث يُعد الذكاء الاصطناعي الأخلاقي مجالًا ناشئًا ومن المتوقع أن يحقق مزيدًا من التقدم في السنوات القادمة. كما يجب على المؤسسات المطورة للذكاء الاصطناعي أن تقيّم مدى ملائمة ومخاطر كل طريقة اتخاذ قرار بمفردها.

    `
  • إن المبادئ العامة والمبادئ التوجيهية غير إلزامية وغير خاضعة للتدقيق. وهي اختيارية للجهات حتى تلتزم بالمبادئ العامة والمبادئ الإرشادية أثناء عملية تطوير أي نظام للذكاء الاصطناعي.

  • يمكن أن تكون المشاركة مفيدة للمؤسسات المطورة والمشغلة للذكاء الاصطناعي لعدة أسباب. إذمن خلال المساهمة، يمكن للجهات القيام بما يلي:

    • إجراء التقييم الذاتي والتخفيف من السلوك غير الأخلاقي لأنظمة الذكاء الاصطناعي الخاصة بها والتي بخلاف ذلك قد تؤدي إلى رد فعل عنيف من العامة وإلحاق الضرر بالسمعة أو التأثير سلباً على بعض الأفراد.

    • اكتساب الفهم الواضح لمعنى الأخلاقيات في الذكاء الاصطناعي وتعميم ذلك الفهم داخلياً وعلى الجهات المعنية والعملاء لزيادة الثقة في أنظمة الذكاء الاصطناعي.

    • اكتساب المعرفة بشأن ما قد يصبح لاحقًا تشريعًا، وتقديم المشورة في تشكيل صياغة ومحتوى  هذا التشريع.

    • المساهمة في وضع رؤية موحدة لأفضل الممارسات في عملية تطوير الذكاء الاصطناعي.

    ونرحب أيضاً بآراء الأفراد بشأن المبادئ العامة والمبادئ الإرشادية.

  • تم تصميم مجموعة الأدوات لتستفيد منها المؤسسات المطورة والمشغلة للذكاء الاصطناعي في كلا القطاعين العام والخاص. ومن المتوقع في القريب العاجل أن تستخدم جهات القطاع العام فقط إلى جانب الشركات الخاصة التي تطور أنظمة الذكاء الاصطناعي لهذه الجهات مجموعة الأدوات بشكل فعّال.

    تشير المبادئ التوجيهية إلى «المؤسسات المطورة للذكاء الاصطناعي» و«المؤسسات المشغلة للذكاء الاصطناعي». وفيما يلي تعريفها:

    • المؤسسة المطورة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • تحديد الغرض من أي نظام للذكاء الاصطناعي

    • تصميم أي نظام للذكاء الاصطناعي

    • بناء أي نظام للذكاء الاصطناعي

    • تنفيذ الصيانة الفنية أو ضبط نظام الذكاء الاصطناعي

    ملاحظة: ينطبق التعريف بغض النظر عما إذا كانت المؤسسة هي المستخدم النهائي للنظام أو إذا قامت ببيعه أو تخلت عنه.

    • المؤسسة المشغلة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • استخدام أنظمة الذكاء الاصطناعي في عمليات التشغيل أو العمليات الداخلية أو اتخاذ القرارت

    • استخدام نظام الذكاء الاصطناعي لتقديم الخدمة للمستخدم النهائي

    • أن تكون مالكًا تجاريًا لأي من أنظمة الذكاء الاصطناعي

    • شراء البيانات ومعالجتها بهدف استخدامها في أي من أنظمة ذكاء الاصطناعي

    • تقييم حالة الاستخدام لأي نظام ذكاء اصطناعي والتقرير فيما إذا يمضي قدماً أم لا

    ملاحظة: ينطبق هذا التعريف بغض النظر عما إذا تم تطوير نظام الذكاء الاصطناعي داخليًا أو تم شراؤه.

    من الممكن للمؤسسات أن تكون مؤسسة مطورة للذكاء الاصطناعي ومؤسسة مشغلة للذكاء الاصطناعي.

  •  مع أن الذكاء الاصطناعي يحيط بنا بالفعل، إلا أن بعض التطبيقات تُعد أكثر وضوحاً وحساسية من غيرها. وتنطبق مجموعة الأدوات هذه فقط على أنظمة الذكاء الاصطناعي التي تتخذ أو تبلغ عن «قرارات هامة» - أي تلك القرارات التي لديها القدرة على إحداث الأثر الكبير سواء على الأفراد أو على المجتمع برمته، وكذلك «القرارات الحاسمة» التي تشكل مجموعة فرعية من القرارات الهامة. وترد كافة التعريفات في المبادئ التوجيهية.