استبيان، برنامج تدريبي، وتجربة حول ضماناتالذكاء الاصطناعي

المزيد حول الخطوات المتبعة لتطبيق ذكاء اصطناعي آمن وعادل في دبي

 

تزداد أهمية خوارزميات البيانات ومشاركتها في سعينا نحو تقديم خدمات أكثر ذكاءً للمدينة وحياة أفضل لسكانها والتنمية المستدامة. إلا أن انتشار الخوارزميات - والبيانات التي يتم تناولها من خلالها - يجعل دراسة آثارها، سواء المقصودة أم غير المقصودة، أمراً أكثر أهمية. 

 

أصبحت المزيد من الشركات تعتمد على الذكاء الاصطناعي في عملها، وذلك يعني زيادة في احتمالية تأثر الأفراد بالقرارات التي تعتمد في اتخاذها على الذكاء الاصطناعي. وقد أظهر بحثٌ أجرته شركة وحدة الذكاء الاقتصادي "Economist Intelligence Unit" أن 86% من البنوك وشركات التأمين تخطط لزيادة الاستثمار في المشاريع المرتبطة بالذكاء الاصطناعي بحلول العام 2025 [1]. ومن الناحية الأخرى، من المتوقع أن تحصل منطقة الشرق المتوسط على 320 مليار دولار كعائدات من استخدام تطبيقات الذكاء الاصطناعي بحلول العام 2030 [2]

 

كما تلتفت المؤسسات إلى أهمية أخلاقيات الذكاء الاصطناعي وبرامج المخاطر الأخلاقية المرتبطة به، مع إقرار 50% من المسؤولين بتخوّفهم "الكبير" و"الشديد" من المخاطر الأخلاقية والمهنية التي قد تؤثر بسمعة مؤسساتهم[3] نتيجة استخدام الذكاء الاصطناعي فيها.

 

علماً بأن هذا التخوّف أمر واقعي، فقد تسببت الخوارزميات مسبقاً بحوادث أدت إلى أضرار مالية وأخرى متعلقة بالسمعة. مثلاً، أعلنت مجموعة "نايت كابيتال" إفلاسها بسبب خلل في نظام التبادل الخوارزمي. في حين اضطرت شركة "أمازون" للتخلي عن نظام التوظيف المبني على الذكاء الاصطناعي لأنه أظهر تحيّزاً ضد النساء[4]. وفي بريطانيا، أدت أزمة كوفيد-19 إلى إلغاء امتحانات الفصل الأكاديمي للعام 2020 بسبب الاستخدام المثير للجدل لخوارزمية تحديد الدرجات من قبل الحكومة. وفي العام التالي تم إعادة التقييم الأكاديمي بين يدي المعلمين مرة أخرى[5].

 

ولهذا تحظى أخلاقيات الذكاء الاصطناعي، وهو مجال جديد نسبياً، باهتمام بالغ لدى صناع القرار ومؤسسات القطاع الحكومي والخاص. وتسعى دبي الرقمية للمساهمة في توجيه الحوار الدائر في العالم حول أخلاقيات الذكاء الاصطناعي، إلى جانب تعزيز مكانة دبي كمدينة رائدة في تبني الذكاء الاصطناعي في القطاعين الحكومي والخاص. ففي العام 2017 تعاونت دبي الرقمية مع شركة "آي بي إم" لإطلاق مختبر الذكاء الاصطناعي من أجل تطوير حالات استخدام محتملة لتطبيقات الذكاء الاصطناعي. وتلي ذلك إطلاق منظومة أخلاقيات الذكاء الاصطناعي[6] في العام 2019 وإنشاء مجلس أخلاقيات الذكاء الاصطناعي الذي يضم أعضاء محليين ودوليين لمراجعة مبادئ المنظومة وتعديلها باستمرار لضمان سيرنا في الاتجاه الصحيح في هذا المجال.  

 

وبناء على هذا الأساس، ترغب دبي الرقمية الآن بتقديم المزيد من الدعم لتطوير منظومة الذكاء الاصطناعي المتكاملة لإمارة دبي. ومن أجل فهم الطلب على حالات استخدام الذكاء الاصطناعي في المدينة وتحديد التحديات التي تواجهها تلك المنظومة، نقوم بإجراء دراسة شاملة للقطاعين الحكومي والخاص بالتعاون مع مؤسسة كلية محمد بن راشد للإدارة الحكومية وجامعة محمد بن زايد للذكاء الاصطناعي. إذا تلقيت دعوة للإجابة على الاستبيان، فيرجى المساهمة في جهودنا من خلال تخصيص بضع دقائق لإكمال الاستبيان!  الأمر أشبه بالخوارزميات، كلما توفرت لدينا بيانات عالية الجودة عبر الاستبيان، كانت القرارات المتخذة وفقاً لها أفضل وأكثر فاعلية. 

 

إن فهم الطلب وحالات استخدام الذكاء الاصطناعي المحتملة ليست سوى الخطوة الأولى، فالمؤسسات بحاجة إلى الدعم العملي والتوعوي في التقليل من مخاطر أخلاقيات أنظمة الذكاء الاصطناعي. ووفقاً لبحث أجرته مجموعة "بوسطن الاستشارية[7]" فإنه لا يمكن مواجهة تحديات الذكاء الاصطناعي بشكل فعال إلا من خلال تجاوز تحليلات الإنصاف والتحيز الخوارزميات للنظر في الآثار المحتملة من الدرجة الثانية والثالثة على السلامة والخصوصية والمجتمع ككل. وهنا يظهر التحدي في التنفيذ، لأن الشركات عادةً لا تعرف كيف تبني علاقة بين المبادئ والإجراءات الفعلية. 

 

وفقًا لبحث نشره مركز أخلاقيات البيانات والابتكار[8]، يعد التدريب والتعليم عنصرًا حيويًا لتحويل الذكاء الاصطناعي المسؤول إلى ممارسة. وهذا يتطلب جهدًا بطيئًا وحازماً في الوقت نفسه لوضع أسس القدرة والتدريب والمعرفة التقنية التي يمكن بناؤها في نظام بيئي متكامل. 

 

ولهذا السبب عقدنا اجتماع لمجلس أخلاقيات الذكاء الاصطناعي في دبي في العام 2021 والذي توصلنا من خلاله الى انشاء مبادرة تدريبية لسد الفجوة بين الجانب التقني للذكاء الاصطناعي وتطبيقاته التنظيمية والوعي. ستجمع مبادرة التدريب بين الممارسين الرائدين في القطاعين الحكومي والخاص لبناء القدرات بين صناع القرار في مجال الذكاء الاصطناعي وقادة السياسات وأبطال البيانات داخل الحكومة. 

 

إن الهدف الأساسي من تلك الدورة التدريبية هو تمكين المؤسسات ومنحهم الأدوات اللازمة للنظر في المخاطر الأخلاقية للذكاء الاصطناعي عند تصميم وتنفيذ أنظمة الذكاء الاصطناعي في دبي. سوف تستكشف الدورة كذلك إمكانيات حالات الاستخدام الأخلاقي للذكاء الاصطناعي لدعم الأعمال وتخوض في اعتبارات الخلفية مثل إدارة البيانات لدعم الذكاء الاصطناعي الأخلاقي. 

 

وعلى المستوى العالمي، يزداد الحديث حول أخلاقيات الذكاء الاصطناعي بسبب توسع نطاق الجهات المشاركة في أنظمة الذكاء الاصطناعي والمتأثرة بها. ولكن بشكل مثالي، تحتاج تلك الأنظمة إلى المراجعة والتحقق من قبل مجموعة من الجهات الفاعلة بما فيها صانعي القرار والمستخدمين المباشرين والمطورين للتأكد من أنها تعمل بطريقة صحيحة. 

 

ولكن التحدي هنا هو أنه من الصعب على الجهات المعنية غير المتخصصة أن تضمن أنظمة ذكاء اصطناعي جديرة بالثقة. وقد أدى ذلك إلى قيام القادة الملمّين في هذا المجال بالدعوة إلى إنشاء منظومة بيئية لضمان الذكاء الاصطناعي. وفقاً لـ Ahamat, Chang and Thomas et al (2021)[9] ، فإن مصطلح "الضمان" أتى من مهنة المحاسبة ولكن تم تكييفه منذ ذلك الحين مع الذكاء الاصطناعي ويقدمون تعريفًا للضمان على النحو التالي:

 

"يشمل الضمان مجموعة من آليات الإدارة التي تطبقها أطراف ثالثة من أجل تعزيز الثقة في امتثال ومخاطر نظام أو مؤسسة ما. وفي سياق الذكاء الاصطناعي، تعتبر أدوات وخدمات الضمان ضرورية من أجل توفير معلومات موثوقة حول أداء منتج ما فيما يخص جوانب مثل العدالة والأمان والمسؤولية، وعند اللزوم، ضمان امتثال المعلومات لمعايير معينة"

 

يتطلب نظام الضمان القوي للذكاء الاصطناعي عمليات ومعايير تقنية وخطط اعتماد ورفع في مستوى الوعي. ولتحقيق ذلك، تعمل دبي الرقمية مع الشركاء لفهم الوضع الحالي والحاجة الحقيقية لضمان الذكاء الاصطناعي في دبي بشكل أفضل. 

 

نهدف الآن إلى إجراء ثلاث تجارب فيما يخص ضمان الذكاء الاصطناعي – بما يتضمن تطوير العناصر الأخلاقية والتنظيمية للذكاء الاصطناعي جنبًا إلى جنب مع حالات استخدام التكنولوجيا والأعمال. وبعد إطلاق مجموعة الأدوات الحالية، نأمل أن يوفر نهجنا لبناء منظومة بيئية لضمان الذكاء الاصطناعي في دبي عمليات احتواء تقنية وتفصيلية للمحافظة على تشغيل أنظمة الذكاء الاصطناعي في الجانب الصحيح مع مراعاة مبادئ السلامة والعدل. 

 

الضمان لا يعتبر حلاً سريعاً حيث يجب فهمه من قبل العديد من أصحاب المصلحة ومن منظور مختلف ووجهات النظر، مع ضرورة التحقق من التأثيرات المختلفة والاعتماد على نهج اجتماعي وتقني. 

 

وعلى الرغم من وجود التحديات إلا أننا مؤمنون بأهمية عملية الضمان. مع العلم بأن اقتراح المفوضية الأوروبية هذا العام بشأن تشريعات أكثر صرامة للذكاء الاصطناعي يرفع احتمالية إجراء المزيد من عمليات تدقيق الذكاء الاصطناعي. قد يحتاج الأمر بعض الوقت قبل أن يصل استبيان التدقيق إلى بريدك الوارد، ولكن في رأينا، تعتبر عمليات التدقيق والنظام المحفز الأوسع للضمان جزءًا لا يتجزأ من تنمية الاقتصاد الرقمي وإنشاء الخدمات العامة التي تدعم الذكاء الاصطناعي في المستقبل. 

 

 



[7] https://www.bcg.com/publications/2020/six-steps-for-socially-responsible-artificial-intelligence

[8] https://cdei.blog.gov.uk/2021/04/15/the-need-for-effective-ai-assurance/

[9] https://cdei.blog.gov.uk/2021/04/15/the-need-for-effective-ai-assurance/#:~:text=In%20the%20AI%20context%2C%20assurance,ensuring%20compliance%20with%20relevant%20standards.