1. يجب أن تمثّل البيانات التي يتلقاها النظام الفئة المتأثرة، حيثما أمكن
2. يجب أن تتجنب الخوارزميات التحيز غير التشغيلي
3. يجب اتخاذ الإجراءات التي تحد من وتقوم بتقييم أي انحياز في مجموعات البيانات
4. يجب إثبات عدالة القرارات الهامة
ما الأهداف الرئيسية التي يتعين وجودها في نظام الذكاء الاصطناعي؟ ما السلوكيات الواجب عليه التحلي بها، وما القيم التي يتعين عليه اتّباعها؟ تمثل مبادئنا الأربعة غير الملزمة للذكاء الاصطناعي محاولة منا للإجابة على مثل هذه الأسئلة بالغة الأهمية.
ولعل هذه الأحكام العامة توضِّح تطلعاتنا وخططنا المتعلقة بأنظمة الذكاء الاصطناعي التي يزيد ذكاؤها وتداخلها في حياتنا اليومية بحيث أصبحت جزءًا لا يتجزأ منها. وتشمل مبادئنا الأربعة الرئيسية مبادئ أخرى فرعية تساعدنا على تحديد أهدافنا بوضوح أكبر فيما يخص تصميم أنظمة الذكاء الاصطناعي وسلوكها.
ونود أن تضع هذه المبادئ أسسًا مشتركة للتوصل إلى اتفاق عام يتيح للبيئات الصناعية والأكاديمية والأفراد التنقل على نحو مدروس في عالم الذكاء الاصطناعي سريع التطور. نعتبر هذه المبادئ عملاً تعاونيًّا قيد التنفيذ، ويسعدنا تلقي ملاحظاتكم القيّمة للمساعدة في تنقيحها.
1. يجب أن تمثّل البيانات التي يتلقاها النظام الفئة المتأثرة، حيثما أمكن
2. يجب أن تتجنب الخوارزميات التحيز غير التشغيلي
3. يجب اتخاذ الإجراءات التي تحد من وتقوم بتقييم أي انحياز في مجموعات البيانات
4. يجب إثبات عدالة القرارات الهامة
1. لا تكمن المساءلة عن نتائج نظام الذكاء الاصطناعي في النظام بحد ذاته، بل إنها مقسّمة بين القائمين على التصميم والتطوير والتطبليق
2. يجب أن يبذل المطوّرون جهدهم للحد من المخاطر المتأصلة في الأنظمة التي يقومون بتصميمها
3. يجب أن تتوفر في أنظمة الذكاء الاصطناعي إجراءات مدمجة تتيح للمستخدمين الاعتراض على القرارات الهامة
4. يجب أن تتولى فرق متنوعة أنظمة الذكاء الاصطناعي بحيث تتضمن خبراء في المجال الذي سيتم نشر النظام فيه
1. يجب أن نشرح للأفراد قرارات ومنهجيات أنظمة الذكاء الاصطناعي التي تؤثر تأثيرًا حيويًا عليهم، إلى الحد الذي تسمح به التكنولوجيا المتوفرة
2. يجب توفير إمكانية التحقق من العوامل الأساسية التي تؤدي إلى اتخاذ أي قرار يمكن أن يؤثر تأثيرًا هاماً على الفرد
3. في الحالة أعلاه، سنقوم بتوفير قنوات يمكن للأفراد التماس هذه الشروحات والتفسيرات عبرها
1. يجب أن يقوم المطوّرون ببناء أنظمة يمكن تتبع وتشخيص حالات الإخفاق بها
2. يجب أن يتم إعلام الناس كلما يتخذ الذكاء الاصطناعي قرارات هامة تخصهم
3. ضمن حدود الخصوصية وحماية الملكية الفكرية، يجب أن يتمتع ناشرو أنظمة الذكاء الاصطناعي بالشفافية فيما يتعلق بالبيانات والخوارزميات التي يلجؤون إليها
1. سيكون أمن وأمان الناس، سواءٌ أكانوا مشغلين أم مستخدمين نهائيين أم أطراف ثالثة، على قمة سلم الأولويات في تصميم أي نظام من أنظمة الذكاء الاصطناعي
2. يجب إتاحة إمكانية التحقق من أمن أنظمة الذكاء الاصطناعي وإمكانية التحكم بها طوال فترة حياتها التشغيلية، إلى الحد الذي تسمح به التكنولوجيا
3. يجب مراعاة أمان وخصوصية المستخدمين عند إيقاف تشغيل أنظمة الذكاء الاصطناعي
4. يجب إيلاء العناية الواجبة بأنظمة الذكاء الاصطناعي التي تؤثر مباشرةً على حياة الناس تأثيرًا حيويًا أثناء مراحل تصميمها
5. يجب مراعاة إمكانية إبطال مثل هذه الأنظمة أو إلغاء قراراتها بواسطة الأشخاص المعنيين المخولين
1. يجب بناء أنظمة الذكاء الاصطناعي بهدف تقديم الخدمات والمعلومات وليس للخداع والتلاعب
2. على الدول التعاون لتجنب سباقات التسلح بالأسلحة ذاتية التحكم المميتة، كما يجب فرض الرقابة الشديدة على هذه الأسلحة
3. يجب تعزيز التعاون الفعال لتجنب تجاهل معايير السلامة
4. يجب أن تقوم الأنظمة المُصممة لتوفير المعلومات للقرارات الهامة بهذه الوظيفة بموضوعية
1. يجب إعداد نماذج الحوكمة للذكاء الاصطناعي العام (AGI) والذكاء الخارق
2. سيسخر الذكاء الاصطناعي العام (AGI) والذكاء الخارق في خدمة الإنسانية ككل، إذا تم تطويرهما
3. يجب تحديد المخاطر طويلة الأمد للذكاء الاصطناعي والاستعداد لها
4. يجب الإفصاح عن أي تطوير لحلول الذكاء الاصطناعي بخاصية التحسين الذاتي المستمر ومراقبته عن كثب والتحكم بمخاطره
1. ستقوم الحكومة بتمويل بحوث الاستخدام النافع للذكاء الاصطناعي
2. يجب تطوير الذكاء الاصطناعي ليتلاءم مع القيم الإنسانية ولكي يساهم في ازدهار البشر
3. يجب أن تساهم الجهات المعنية في المجتمع كله في تطوير الذكاء الاصطناعي وحوكمته
1. يجب أن يطوّر الذكاء الاصطناعي المجتمع، ويجب إشراك أفراد المجتمع بشكل يمثلهم لتشكيل ملامح تطور الذكاء الاصطناعي
2. يجب أن تحتفظ البشرية بقدرتها على أن تحكم نفسها وتتخذ القرار النهائي في شؤونها، على أن يكون الذكاء الاصطناعي مسانداً لذلك
3. يجب أن تتوافق أنظمة الذكاء الاصطناعي مع الأعراف والمعايير الدولية فيما يتعلق بالقيم الإنسانية وحقوق الأفراد والسلوكيات المقبولة
1. يجب أن تحترم أنظمة الذكاء الاصطناعي الخصوصية وتستخدم الحد الأدنى الضروري من التدخل
2. يجب أن تتبنى أنظمة الذكاء الاصطناعي أعلى معايير أمن وحوكمة البيانات لحماية المعلومات الشخصية
3. يجب عدم استعمال تقنيات المراقبة أو تقنيات الأخرى بشكل ينتهك المعايير المتعارف عليها دوليًا و/أو فيما يخص الخصوصية والقيم الإنسانية وحقوق الأفراد
1. سيتم تنسيق تطوير أنظمة الذكاء الاصطناعي عن طريق الاستجابة لأثره على التوظيف
2. سيتم استخدام الذكاء الاصطناعي لمساعدة البشر على تحقيق ذاتهم وعلى الازدهار عقليًا وعاطفيًا واقتصاديًا إلى جانب الذكاء الاصطناعي
3. سيتم توفير التدريب والفرص والأدوات للجميع
4. يجب أن يتطور التعليم ليعكس أحدث المستجدات في مجال الذكاء الاصطناعي مما سيسمح للناس بالتكيف مع التغييرات المجتمعية الناجمة عنه
1. يجب تشجيع جهود التعاون الدولي لضمان حوكمة الذكاء الاصطناعي بشكل آمن
2. ستساهم الحكومة في إرساء أفضل الممارسات والمعايير المعترف بها دوليًا الخاصة بالذكاء الاصطناعي، والالتزام بها بعد إرسائها