1. يجب ألا تكون المساءلة عن مخرجات نظام الذكاء الاصطناعي في النظام نفسه
2. يجب المبادرة بجهود تُسهم مسبقاً في التعرّف على أية مخاطر هامة تتضمنها طبيعة النظام المُصمّم والحد من أثرها
3. معلّق - يجب أن تكون أنظمة الذكاء الاصطناعي المرتبطة بقرارات حرجة متاحة لإجراء التدقيق الخارجي عليها
4. يجب أن يتاح للأشخاص المشاركين والمتأثرين بأنشطة الذكاء الاصطناعي الاعتراض على القرارات المؤتمتة الهامة المتعلقة بهم، وأن يتمكنوا من اختيار عدم المشاركة عند الإمكان.
5. يجب ألا تقوم أنظمة الذكاء الاصطناعي بإصدار أحكام هامة بالنيابة عن الأشخاص المعنيين دون الحصول على موافقتهم المسبقة
6. يجب تطوير أنظمة الذكاء الاصطناعي المرتبطة بالقرارات الهامة بواسطة فرق متعددة الخلفيات والخبرات تتمتع بالمعرفة والخبرات المناسبة
7. يجب أن تكون لمؤسسات تشغيل أنظمة الذكاء الاصطناعي دراية كافية بطبيعة أنظمة الذكاء الاصطناعي التي تستخدمها حتى تكون قادرة على معرفة ملاءمتها لحالة الاستخدام وذلك تحقيقاً لضمان المساءلة والشفافية